Friday, 6 October 2017

Flytte Gjennomsnittet Fps


Et dusin timer med Black Ops 3-testing fullførte og flyttet til neste sekvensielt inkrementerte videospill: Fallout 4. Det ble et større nummer på slutten. Bethesda har en av de lengste utviklingslivssyklusene i bransjen, men selskapets spill er også blant uten tvil den lengste varigheten, takket være moddemidlene som er utbredt. Det hjelper at modding fellesskapet er i stand til å fylle hull i Betesdas-koden eller bygge helt nye spill fra det sterke fundamentet som ble fremsatt av veteran RPG-teamet. Vår Fallout 4 game review gameplay analyse er allerede på hjemmesiden. hvis det er det du leter etter. Dette innlegget ser utelukkende og i dybden på Fallout 4s grafikkinnstillinger og ytelse på PC. Nedre Fallout 4 PC benchmark tester FPS ytelse på tvers av nVidia og AMD GPUer, inkludert GTX 750 Ti, 960, 970, 270X, 285, 390X og mange flere. VRAM og minneforbruk er også sett på løst under, forhåpentligvis etablering av en grunnlinje for de beste skjermkortene til Fallout 4 på PC. Fordi mod-verktøy ikke eksisterer, og absolutt ingen mods gjorde under testen før utgivelsen, regner vi ikke med det uunngåelige resultatstrekket laget av fremtidige grafikkmoduser. Fallout 4 Max grafikkinnstillinger 4K60 Gameplay Video forklarer Fallout 4s Graphics Settings Fallout 4s innstillinger er ganske enkle. Alle som er kjent med Skyrim (og Fallout 3. og New Vegas) er allerede kjent med Fallout 4-motoren, innstillingsskjermbildet og alternativer. Fallout 4 kjører på samme motor som Skyrim gjorde, og dens. ini-filer inneholder mange av de samme innstillingene, så de fleste av. ini-tweaking fra Skyrim og New Vegas overfører til Fallout 4. Anti-Aliasing: Glatter objekt og tekstur grenser ved å samle piksler flere ganger for farger. TAA og FXAA er begge tilgjengelige. FXAA dukket opp tidligere i Skyrim og forblir det samme i Fallout 4. Spillere som klager over blurriness, vil kanskje sørge for at FXAA ikke er aktivert. Anisotrop filtrering: Teksturfiltreringsteknikk som sikrer en mer jevn teksturapplikasjon mot forsvinner, f. eks. ikke skråvisningsvinkler. Et lett eksempel ville være en vei med en stiplet hvit linje nedover: Høyere anisotropiske filtreringsprøveantall vil sikre at den stiplede linjen forblir konsistent i applikasjonen på overflaten når veien nærmer seg forsvinnerpunktet. Deaktivering av AF betyr at linjen vil bli mer og mer uklart og feil, da den avviger seg fra spilleren som et resultat av applikasjonsvinkelen. Detalj: Konfigurerbar til lav, middels, høy og ultra. Avansert fan gir individuell innstillingskontroll. Visningsmodus: Vindusmodus, full skjerm og kantløs modus tilgjengelig. Teksturkvalitet: Dikter oppløsning av teksturer som brukes på objekter i spillet. Lavere kvalitetsinnstillinger fjerner grus, tilsynelatende dybde og finere detaljer på overflater. Signage, for eksempel, kan gå fra å inneholde faktiske, lesbare ord for å være et uskarpt rot på Low. Dette gjelder for de fleste spill med oppløsning av teksturoppløsning. Du kan se et eksempel på teksturkvalitetskalering her: Black Ops III. Witcher 3. GTA V. Skyggekvalitet: Oppløsningen og detaljene for skygger som kastes av objekter i spillet. Fallout 4 mangler en betydelig mengde skyggedetaljer som finnes i de fleste andre spill, selv på Ultra, og gjør ikke skygger for de fleste elementer eller for mange statiske elementer. Økende skygge kvalitet vil glatte skygge grenser og redusere marspiksere effekter når et dynamisk objekt kaster en skygge, til kost for ytterligere GPU sykluser. Skyggeavstand: Avstanden der skygger gjengis. Skygger vil komme inn og ut avhengig av spilleravstand som et middel for større LOD-skalering. Redusering av dette vil forbedre ytelsen, spesielt i store områder med mange skyggekartede objekter. Dekalskvalitet: Dekaler er best å tenke på som klistremerker som blir brukt på miljøet eller gjenstandene etter hvert som spillingen utfolder seg. Blod, punktkontaktpunkter og brent jord fra eksplosiver er alle dekaler. Hvis du endrer denne innstillingen, bestemmer du hvor lenge et dekal forblir og hvor mange akkumulerer, sammen med generell dekaldetalj. Lysekvalitet: Endrer påliteligheten til kaskadeeffekter og lys tilstedeværelse. Godrays Kvalitet: Kvalitet, telle og generell tilstedeværelse av lysstråler som kaster ned fra oven (kalt godrays), særlig når det gjelder lys som skinner gjennom andre gjenstander semi-transparente flater (vinduer), gjennom tett geometri (tregrener), og så videre. Feltdybde: Gjelder en bokeh-filmeffekt på skjermplass som anses å være utenfor fokus for spillerne POV. Ambient Occlusion: Styrer lys og skygge applikasjon til tilstøtende overflater. Mest merkbare på undersiden av løvverk og planteliv. Deaktivering av Ambient Occlusion fjerner betydelig skade fra spillet, som allerede mangler, og forenkler måten lyset samhandler med noen materialer og tilstøtende overflater. Skjermruta Refleksjoner: Merk av for å skifte. Skjermeromfattende refleksjoner (delvis styrt av omgivende okklusjon) vises når lyset interagerer med reflekterende materialer, metaller, glatte toppfrakker, vinduer, etc. Våthet: Kryss av for å bytte. Aktiverer eller deaktiverer at objekter kan bli våte fra å møte vann. Den våte effekten påfører en glans på overflaten av det berørte objektet. Regn okklusjon: Deaktiver dette når du opplever et lag spesielt under regnværsarrangementer. Bestemmer om regn er underlagt okklusjonseffekter. Bevegelsesskarphet: Selvforklarende deaktivere hvis du ønsker en mindre uklar opplevelse. Lensflare: Michael Bays favoritt a-sving som aktiverer eller deaktiverer linseblad når kameraet er i visse vinkler til lyskilder. Objektfade: Avstand der ikke-aktør objekter som skilting, søppelkasser eller andre ikke-element elementer begynner å forsvinne fra kameraet eller pop-in for å vise. Skuespiller Fade: Avstanden der aktørobjekter (NPCs) pop-in eller forsvinne fra kameravisning. Gressfading: Som de to to, men for gress senker dette først hvis det går langs mens du reiser gjennom hillsgrassy-ørkener. Element Fade: Avstander hvor tapt eller plassert elementer pop-in eller visne fra visning. Distant Object Detail: LOD av fjerntliggende gjenstander. Økning av denne innstillingen vil øke tilsynelatende geometrisk kompleksitet (maskekvalitet) av gjenstander langt fra spilleren. Objektdetaljer Fade: Hvor raskt grittier detaljer av objekter forsvinner, men ikke selve objektet fra spillernes visning. LOD-skalering som gjør at objektet kan forbli i sikte uten å fjerne det helt. Fallout 4 PC Video Card Benchmark - 980 Ti, 970, 390X, 270X, Mer Video Test Methodology Vi testet ved hjelp av vår multi-GPU testbænke 2015, detaljert i tabellen nedenfor. Vår takk for at du støtter maskinvareleverandører for å levere noen av testkomponentene. NVidias unreleased Fallout 4 drivere ble brukt til testing, inkludert Fallout 4 optimaliseringer. De nyeste AMD Catalyst-drivere (15.11 beta) ble brukt til testing. Spillinnstillingene ble konfigurert til Ultra med ultra overrides hvor ikke valgt, Medium og Low forhåndsinnstillinger ved 1080p, 1440p og 4K resolusjoner. Når vi har bestemt hvilke innstillinger som ga et rimelig belastningsnivå for passende skjermkort, forfalsket vi frem til å teste disse konfigurasjonene på vår pakke med GPUer. Hvert scenario ble testet i 30 sekunder identisk, og gjentatt tre ganger for paritet. Vi testet i Diamond City, den første store township som spilleren når. Vi fant deler av Diamond City for å produsere høy intensiv belastning, med en ytelsesgap så bred som nesten 60 i noen tilfeller. Dette gjør Diamond City til en dårlig optimalisert region i spillet som representerer et blandet belastningsscenario vår testkjøring starter med kameraet pekt mot en tungt okkupert region i byen, og beveger seg rundt en mye mindre intensiv korridor. Resultatet er en blandet GPU-belastning som er 100 reproduksjonsbar og representativ for spillopplevelser i virkeligheten. Vår video over viser kurset vi brukte. Dette ble valgt for reproduserbarhet og pålitelighet under testen. Benchmarks som ikke nøyaktig etterligner vårt kurs, vil variere i resultater, avhengig av hvilket område av spillet de ble henrettet. GN Test Bench 2015 Gjennomsnittlig FPS, 1 lav og 0,1 lavtider måles. Vi måler ikke maksimale eller minimale FPS-resultater da vi vurderer disse tallene å være rene utelukkere. I stedet tar vi et gjennomsnitt av de laveste 1 av resultatene (1 lav) for å vise virkelige, merkbare dips, og deretter tar vi et gjennomsnitt av de laveste 0,1 resultatene for alvorlige pigger. Nedenfor ble GPUene testet: Testede innstillinger Vi testet spillet ved å bruke disse innstillingene: 4K, alt satt til Ultra (maks. Innstillinger). 1440p, alt sett til Ultra (maks innstillinger). 1080p, alt sett til Ultra (maks innstillinger). 1080p, alt satt til middels. 1080p, alt satt til lavt. FPS Caps. ini Tweaking i Fallout 4 Benchmarks mulig med låste framerater. For å nøyaktig måle absolutt ytelsesverdier for skjermkort, deaktiverer vi alle rammebestandige låsingsteknologier under testingen. Det inkluderer G-Sync og FreeSync, V-Sync. og alt annet ligger under spillets hette. I Fallout 4 måtte vi navigere til documentsmy gamesfallout 4Fallout4Prefs. ini og sette iPresentInterval til 0. Dette deaktiverer framerate cap og synes derfor å eliminere falsk musegang. Denne filen blir overskrevet umiddelbart etter lanseringen av spillet igjen, men slik at alle som låner vår metodikk til benk, må sette filen til å lese bare. Det er en egendefinert preferansefil som Id imagine skal fungere som en overstyring til kjernen. ini-filen, men jeg er ikke sikker på hvordan du bruker den, så vi gikk med skrivebeskyttet metode. Fallout 4 RAM VRAM-forbruk Ved foreløpig ressursutnyttingstest fant vi ut at 1080max-innstillingene krever engasjert minne på ca. 4,8 GB (2,4 GB arbeidssett eller fysisk RAM), noe som er litt mindre enn en fjerdedel av det vi så Black Ops forpliktet til. Stor forskjell. Men Fallout er den rimelige her, sikkert. Spillere kan med rimelighet distribuere 8 GB (eller så lite som 4 GB, men det skaper det med bakgrunnsoppgaver) av systemminne for Fallout 4. De samme 1080max-innstillingene benyttes under 3 GB VRAM til enhver tid, vanligvis nærmere 2,6-2,9 GB. Initial anti-Aliasing Andre innstillinger Finninger Vi gjorde noen ganske uoffisielle pre-bench anti-alias FPS målinger for å bestemme, internt, om vi skulle aktivere FXAATAA ved testing av Fallout 4. Vi så generelt minimal forskjeller (mindre enn 3, i de fleste tilfeller ), selv ved 4K, og valgte å forlate TAA for Ultra-benchmarks. Vi har også oppdaget, som ovenfor, at innstillingen Shadow Distance til mer restriktive verdier (Medium, nemlig) umiddelbart så tangible FPS boons i området 16.87. Dette ville være et av de første stedene å gå for alle som prøvde å forbedre ytelsen, men det ble igjen på sitt høyeste innstilling for våre Ultra-tester. Fallout 4 4K Ultra Benchmark GTX 980 Ti vs 390X, 970, 290X, Mer Jeg var litt sjokkert over å se at 980 Ti og 390X sliter så mye med Fallout 4. Ingen kort treffer den magiske 60FPS-metriske, men vi har funnet det generelt Spillet er fortsatt spillbart innen 45-50FPS-serien (i motsetning til raske skyttere, for eksempel Black Ops III). Vanlige lesere vil legge merke til at Fallout 4 er nesten like krevende som Black Ops III, et spill som objektivt er teknologisk overlegen i grafikkavdelingen. Saken med Fallout er at det er et åpent verdensspill, og visningsavstandene er betydelig høyere, og det er mye mer å se på lengre rekkevidde. Selv på Black Ops største kart, er det så mye nærsynt obfuscation (bygninger, prefab elementer) at det ikke trekker eksternt så langt inn i avstanden som Fallout. Dette er den store metodiske forskjellen i implementeringen av hvert spill. Men Fallout virker fremdeles altfor krevende for et spill av sitt utseende. Som det står nå, er spillet effektivt unplayable på de fleste single-GPU løsninger på 4K. Det er et argument å bli gjort at 46FPS AVG kan spilles, men det er en fin linje å gå. Fallout 4 1440p Ultra Benchmark GTX 980 Ti vs 390X, 970, 290X, 960, Mer Som forventet, viser AMD sin differensier i høyere oppløsningstester. R9 390X lander passende mellom GTX 970 og MSI GTX 980. Fallout 4 spilles rimelig på 1440p på kort av ekvivalent eller overlegen klasse til R9 290X og GTX 970. Kortene på 285 og 960 klarte ikke å tåle syklus og båndbreddemetning av høyere oppløsninger. Fallout 4 1080p Ultra Benchmark GTX 980 Ti vs 390X, 970, 290X, Mer Først og fremst, det åpenbare: 1080p GPU benchmark, som du vil se, plasserer en GTX 970 over en R9 390X med ca 5,1. Vi regnet ikke med at dette skulle skje i Fallout 4 og fremkommet for å validere funnene. Vi trodde at vi fant innstillingen for å skape 970-lederen når vi tilpasset hvert alternativ, og så merket at Shadow Distance påvirket resultatene med nesten 20FPS nok til å lukke gapet, men som deretter reproduserte mitt opprinnelige resultat. Når du setter inn skyggeavstand til laveste innstilling (medium) på både R9 390X og GTX 970, stiller resultatet fremdeles 970 med et par rammer foran 390X. Faktisk er det nesten samme 5 gapet. Det er ikke skyggeavstand, da. Vi prøvde alle andre omgivelser og kunne ikke finne en som produserte en dyp ytelse hit for AMD da det ikke gjorde det også for nVidia. Det fører meg til å tro at dette er enten en spilloptimalisering eller, mer sannsynlig, et driveroptimeringsproblem. Vi kontaktet AMD sent i forrige uke på leting etter den tilsynelatende uunngåelige Fallout 4 dag-en-drivere, men ble fortalt at driverne var klare ennå. Det er mulig at 390X vil overskride GTX 970 ved 1080p med en driveroppdatering eller spilloptimaliseringsoppdatering, men dataene (som nedenfor) er hvordan det står akkurat nå. 1080ultra-innstillinger tillater Fallout 4 å strekke seg ned til 225 GTX 960 og R9 285 (206) regionen, som også vil inkludere (ikke til stede) R9 380. GTX 950 er ikke nok til å presse 1080ultra, 960 kan gjøre det til å fungere med litt lys tweaking eller bare ved å akseptere 50FPS, og R9 285 opererer på 54FPS gjennomsnitt. R9 285 tanks sine 0,1 lave framtider ned til 30 til tider, men det er ingenting som ødelegger opplevelsen. Basert på disse diagrammene, for å spille Fallout 4 ved 1080max, krever det om en GTX 960 (225) eller R9 380 (230) for best fluiditet under toppbelastning i spillet. Tuning innstillingene til High vil tillate GTX 950 (170) og utdatert R9 270X (tilsvarende: R7 370 for 150) for å nærme seg det spillbare FPS-området. I high-end er GTX 980 Ti, 980, 970, R9 390X og R9 290X alle dyktige artister som regelmessig overskrider 60FPS ved hjelp av 1080ultra. Fallout 4 er ikke den typen spill hvor du trenger mer enn 60FPS, men spesielt fordi det har en FPS-låsekapping framerates til 60 som standard. Fallout 4 1080p Middels Lav Benchmarks GTX 750 Ti, R7 270X Bare for de på nedre kort. Vi brukte ikke for mye tid her. Konklusjon: De beste kortene til Fallout 4 Fallout 4 er et merkelig spill. Det ser ikke på alt imponerende jeg mener, bare se på skjermbildet ovenfor. Du kan bokstavelig talt telle polygonene i den gjerdeposten sin under 40, sikkert. Gjerdet selv er en flat barriere med null dybde. Spillet, objektivt, er datert i sin visuelle presentasjon. Det gjør ikke spillet dårlig vår vurdering faktisk foreslår ellers, men det gjør grafikken mindre imponerende av moderne standarder. Vi forventer at ytelsen skal være fantastisk, gitt denne forenklede estetikken, men Fallouts store visningsavstander og skyggeapplikasjon tar mye av det. For alle som prøver å oppnå en høyere framerate enn representert her, foreslår vi først å senke Shadow Distance, og deretter trykke noen av visningsavstandsinnstillingene av beskjedne mengder. Uansett, å spille på 1080ultra i verste fall, vil du ha noe som 230 R9 380 (ikke tilstede) eller GTX 960 (225). En R9 390X fungerer bra for 1440p og vil være vår go-to, kort for å velge nVidias GTX 980 ved oppdatering: Se vårt Volumetriske Lighting-referansemål her. 4K er ikke ment for single-GPU-løsninger på dette tidspunktet, spesielt ikke i maks. Innstillinger og se avstander. Når det gjelder lavere innstillinger, kan alle komfortabelt kompromittere Ultra for Medium ta GTX 950 for en solid 60FPS-opplevelse. Brukere av lave innstillinger kan gjøre en 750 Ti-jobb i en klemme, men R9 270X håndterer seg utmerket. 270X er nå avskrevet, men den har faktisk blitt erstattet med R7 370. Hvis du liker vår dekning, kan du vurdere å støtte oss på Patreon. - Steve Lelldorianx Burke. Ytterligere benchmarking av Mike Gaglione. Ramesh Raskar. Lektor, MIT Media Lab prosjektleder (raskar (at) mit. edu) Moungi G. Bawendi. Professor, Dept of Chemistry, MIT Andreas Velten. Postdoktor, MIT Media Lab (velten (at) mit. edu) Everett Lawson. MIT Media Lab Amy Fritz. MIT Media Lab Di Wu. MIT Media Lab og Tsinghua U. Matt Otoole. MIT Media Lab og U. of Toronto Diego Gutierrez. Universidad de Zaragoza Belen Masia. MIT Media Lab og Universidad de Zaragoza Elisa Amoros, Universidad de Zaragoza Vi har bygget en bildebehandling som lar oss visualisere forplantning av lys. Den effektive eksponeringstiden for hver ramme er to trillionths av et sekund, og den resulterende visualiseringen viser lysets bevegelse ved omtrent halvparten trillioner bilder per sekund. Direkte opptak av reflektert eller spredt lys ved en slik rammehastighet med tilstrekkelig lysstyrke er nesten umulig. Vi bruker en indirekte stroboscopic metode som registrerer millioner av gjentatte målinger ved nøye skanning i tid og synspunkter. Deretter omarrangerer vi dataene for å lage en film med en nanosekund lang hendelse. Enheten er utviklet av MIT Media Lab8217s Camera Culture-gruppen i samarbeid med Bawendi Lab i Institutt for kjemi ved MIT. En laserpuls som varer mindre enn en trillionth av et sekund brukes som et blits, og lyset som kommer tilbake fra scenen, samles inn av et kamera med en hastighet som tilsvarer omtrent halvparten billioner bilder per sekund. På grunn av svært korte eksponeringstider (omtrent to trillionths sekund) og et smalt synsfelt av kameraet, blir videoen tatt i løpet av flere minutter ved gjentatt og periodisk prøvetaking. Den nye teknikken, som vi kaller Femto Photography. består av femtosekund laser belysning, picosecond-nøyaktige detektorer og matematisk rekonstruksjon teknikker. Vår lyskilde er en Titanium Sapphire laser som avgir pulser med jevne mellomrom hver 13 nanosekunder. Disse pulser belyser scenen, og utløser også vår picosecond nøyaktige streak tube som fanger lyset tilbake fra scenen. Strekkameraet har et rimelig synsfelt i horisontal retning, men svært smal (omtrent lik en skanningslinje) i vertikal dimensjon. Ved hvert opptak kan vi bare spille inn en 1D-film i dette smale synsfeltet. I filmen registrerer vi omtrent 480 rammer, og hver ramme har en eksponeringstid på ca. 1,71 pikosekunder. Gjennom et speilsystem orienterer vi kameraets visning mot ulike deler av objektet og tar opp en film for hver visning. Vi opprettholder en fast forsinkelse mellom laserpulsen og starttidspunktet for filmen. Endelig bruker vår algoritme denne innsamlede data til å komponere en enkelt 2D-film med omtrent 480 rammer hver med en effektiv eksponeringstid på 1,71 pikosekunder. Utover det potensielle innen kunstnerisk og pedagogisk visualisering omfatter applikasjoner industriell bildebehandling for å analysere feil og materielle egenskaper, vitenskapelig bildebehandling for å forstå ultrafast prosesser og medisinsk bildebehandling for å rekonstruere underoverflateelementer, dvs. ultralyd med lys. I tillegg vil fotonbaneanalysen tillate nye former for beregningsfotografering. f. eks å gjengi og gjenopplyse bilder ved hjelp av grafikkteknikker. Referanser A. Velten, R. Raskar, og M. Bawendi, Picosecond kamera for Time-of-Flight Imaging, i Imaging Systems Applications. OSA Teknisk Digest (CD) (Optical Society of America, 2011) Link Slow art med trillion rammer per sekund kamera, A Velten, E Lawson, A Bardagiy, M Bawendi, R Raskar, Siggraph 2011 Talk Link R Raskar og J Davis, 82205d tidslystransportmatrise: Hva kan vi begrunne om sceneegenskaper8221, juli 2007 Ofte stilte spørsmål Hvordan kan man ta et fotografi av fotoner i bevegelse med en billioner bilder per sekund Vi bruker en pico-sekund nøyaktig detektor. Vi bruker en spesiell bildebehandler kalt et strekkrør som oppfører seg som et oscilloskop med tilhørende trigger og avbøyning av bjelker. En lyspuls kommer inn i instrumentet gjennom en smal spalte langs en retning. Det blir deretter avbøyet i vinkelrett retning slik at fotoner som kommer først, treffer detektoren i en annen posisjon enn fotoner som kommer senere. Det resulterende bildet danner et lysstrek. Streak rør brukes ofte i kjemi eller biologi for å observere milimeter størrelse objekter, men sjelden for fri plass imaging. Kan du fange noen hendelser ved denne rammeprofilen Hva er begrensningene Vi kan IKKE fange vilkårlig hendelser ved pikosekunder tidsoppløsning. Hvis hendelsen ikke kan repeteres, vil det nødvendige signal-støyforholdet (SNR) gjøre det nesten umulig å fange hendelsen. Vi utnytter det enkle faktum at fotonene statistisk vil spore den samme banen i gjentatte pulserte belysninger. Ved nøye synkronisering av den pulserende belysningen med opptak av reflektert lys registrerer vi samme piksel på samme nøyaktige tidsslot millionvis for å akkumulere tilstrekkelig signal. Vår tidsoppløsning er 1,71 pikosekund, og derfor vil enhver aktivitet som spenner mindre enn 0,5 mm i størrelse være vanskelig å registrere. Hvordan sammenligner dette med å ta opp videoer av kuler i bevegelse For ca 50 år siden skapte Doc Edgerton fantastiske bilder av raske gjenstander som kuler. Vi følger i hans fotspor. Utover den vitenskapelige utforskningen kan våre videoer inspirere kunstneriske og pedagogiske visualiseringer. Nøkkelteknologien var da bruk av kortvarig flash for å fryse bevegelsen. Lys reiser omtrent en million ganger raskere enn kulen. For å observere fotoner (lette partikler) i bevegelse krever en helt annen tilnærming. Kulen er innspilt i et enkelt skudd, dvs. det er ikke nødvendig å skyte en sekvens av kuler. Men for å observere fotoner, må vi sende pulsen (lyspæren) millioner av ganger inn i scenen. Hva er nytt om Femto-fotograferingstilgangen Moderne bildebehandlingsteknologi fanger og analyserer virkelige scener med 2D-kamerabilder. Disse bildene korresponderer med jevn lystransport og ignorerer forsinkelsen i utbredelse av lys gjennom scenen. Hver lysstråle tar en tydelig sti gjennom scenen som inneholder en mengde informasjon som går tapt når alle lysstrålene er oppsummert på det tradisjonelle kamerapikselet. Lyset beveger seg veldig fort (1 fot i 1 nanosekund), og prøvetalllyset på disse tidene er langt utenfor rekkevidde av konvensjonelle sensorer (hurtige videokameraer har mikrosekret eksponeringer). På den annen side tar LiDAR og Femtosecond imaging teknikker som optisk koherens tomografi som bruker ultra-rask sensing og laser belysning bare kun direkte lys (ballistiske fotoner) fra scenen, men ignorerer det indirekte reflekterte lyset. Vi kombinerer de siste fremskrittene i ultra-rask maskinvare og belysning med en rekonstruksjonsteknikk som avslører uvanlig informasjon. Hva er utfordringene De raskeste elektroniske sensorene har eksponeringstid i nanosekunder eller hundrevis av pikosekunder. For å fange forplantning av lys i en bordplattform trenger vi sensorhastigheter på rundt 1 ps eller 1 billioner bilder per sekund. For å oppnå denne hastigheten bruker vi et strekkrør. Streak-kameraet bruker et triks for å fange et etdimensjonelt synsfelt på nær en billioner bilder per sekund i et enkeltstrimmelbilde. For å få en komplett film av scenen stikker vi sammen mange av disse strekbildene. Den resulterende filmen er ikke av en puls, men er et gjennomsnitt på mange pulser. Ved nøye synkronisering av laseren og kameraet må vi sørge for at hver av disse pulser ser like ut. Hvordan vil disse kompliserte instrumentene overgå ut av laboratoriet De ultrafaste bildesystemene i dag er ganske store. Laserkildene og høyhastighets kameraene passer på en liten optisk benk og må nøye kalibreres for utløsing. Det er imidlertid parallell forskning i femtosekund solid state lasere, og de vil sterkt forenkle belysningskilden. I tillegg viser fremdrift i optisk kommunikasjon og optisk databehandling et stort løfte om kompakte og raske optiske sensorer. Likevel, på kort sikt, bygger vi applikasjoner der bærbarhet ikke er så kritisk. Relatert arbeid P Sen, B Chen, G Garg, S Marschner, M Horowitz, M Levoy og H Lensch, 8220Dual photography8221, i ACM SIG. 821705 SM Seitz, Y Matsushita og KN Kutulakos, 8220A teori om inverselystransport8221, i ICCV 821705 SK Nayar, G Krishnan, M Grossberg og R Raskar, 8220Fast separering av direkte og globale komponenter i en scene ved bruk av høyfrekvent belysning8221, i SIGGRAPH 821706 K Kutulakos og E Steger, 8220A teorien om refraktiv og spekulær 3d form ved lysveis triangulering8221, IJCV 821707. B. Atcheson, I. Ihrke, W. Heidrich, A. Tevs, D. Bradley, M. Magnor, H .-P. Seidel, Time-resolved 3D-fangst av ikke-stasjonære gasstrømmer Siggraph Asia, 2008 Presentasjon, videoer og nyhetshistorier Nyheter Dekning: The New York Times. Speed ​​of Light Lingers i ansiktet av New Camera MIT News. Trillion-frame-per-sekund video. Ved å bruke optisk utstyr på en helt uventet måte, har MIT-forskere opprettet et bildesystem som gjør lyset ser sakte ut. BBC: MITs lyssporingskamera Melanie Gonick, MIT News-anerkjennelser Vi takker hele Kamera Kultur-gruppen for deres unrelenting støtte. Denne forskningen støttes av forskningsstipendier fra MIT Media Lab-sponsorer, MIT Lincoln Labs og Army Research Office gjennom Institute for Soldier Nanotechnologies at MIT. Ramesh Raskar støttes av en Alfred P. Sloan Research Fellowship 2009 og DARPA Young Fakultet award 2010. Nylige prosjekter i Camera Culture groupDette nettstedet viser deg hvordan du lager briljant DivX-video (fra TV, DVB, DV, DVD osv.) For arkivering ELLER hvordan du reduserer filstørrelsen for å produsere flotte, men likevel små DivX-bilder. Hvis du har å gjøre med DivX, inneholder dette nettstedet noen videostatistikker og eksperimenter, som kan være av interesse for alle videoutgivere og DivX-entusiaster. En stor del av dette nettstedet omhandler interlacingdeinterlacing som introduserer noen av de nestiest interlacing problemer som disse: Vennligst besøk også mine andre nettsteder eBooks Last ned ebøker-nedlasting (med tilknyttet program) Tiny Google Startside for din Browser Tigoo Matrix Reloaded Forklaret matris-forklaret Gratis Dating Tips 100-dating tips Mine Freeware-filer 1-4a Tror du at du tar opp 25 bilder per sekund når du lager en film med ditt digitale videokamera Det digitale videokameraet gjør følgende: Records 50 bilder per sekund, blander hver 2 påfølgende bilder ( med halv høyde) i 1 ramme. Faktisk kaller du ikke dem bilder, men felt. Så 2 felt er blandet i 1 ramme. Denne blandingen kalles interlacing. Her er et eksempel på hva ditt digitale videokamera gjør: Fangstfelt1 (fanger opp til halv høyde, eller full høyde og deretter endrer størrelsen ned): De ser stort sett like ut. Men vent, de er forskjellige. Du kan se ved å sammenligne posisjonen til tommelen og tastaturtastene. Nå blandes disse to feltene inn i Frame1 (full høyde): Det du ser ovenfor er en nøyaktig ramme som på kassetten på videokameraet. Her er en forstørret visning av ovenstående ramme 1: Som du klart kan se ovenfor, består Frame1 av Field1 og Field2. Måten den ser ut kalles såtand type kantforvrengning mus tenner kammende serrations interlaced linjer. Med andre ord: En enkelt ramme består av 2 fanger av to forskjellige øyeblikk. Field1Time1, Field2Time2. Se denne rammen nedenfor. Dette er en opptak direkte fra MTVs Digital Video Broadcasting: Ovennevnte scene består av 2 helt forskjellige scener fordi dette er rammen der det er en endring fra scene1 til scene2. Scene2 (Dette er Britney Spears-ytelse på MTV Video Music Awards 2001) På grunn av denne tiden intermix (1 frametime1time2) er det umulig å: deinterlace en ramme, hold 25 fremtiden, hold full kvalitet (all informasjon om et bilde). Umulig. Du må endre minst ett av disse punktene. Bortsett fra når det ikke var noen bevegelse. På en dataskjerm er interlaced opptak irriterende å se på fordi linjene er veldig forstyrrende. Spesielt i scener hvor det er bevegelse fra venstre til høyre (høyre til venstre) ser du interlacing, som i dette eksemplet: Teksten nederst ruller fra høyre til venstre og etterlater dermed mustenner fordi denne rammen består av 2 stillbilder av tid, som beskrevet ovenfor. Mus tenner på grunn av en opp-ned bevegelse. Dette er en scene fra musikklippet quotAnywherequot fra utøveren 112. Det er ingen bevegelse forstyrrende linjer der, men dette er en ramme der det var kort flash, og derfor er det en forskjell fra ett felt til det andre. For å gjøre ting enda mer komplisert, har noen digitale videokameraer noe du kan ringe kvadratkvalitet interlacingquot. Mens dette begrepet kanskje er noe unøyaktig for å beskrive kilden til artefakter, er det ganske beskrivende for sluttresultatet. Men selv etter deinterlacing er det noen røde og noen grønne piksler blir der det siste feltet var. Her er et annet eksempel (etter deinterlacing): Noen videokameraer blander forskjellige farger til forskjellige felt, eller bruker CCDer som reagerer langsommere, slik at du får disse merkelige fargemønstre noen ganger. Videre er det videokameraer med kjent quothardware bugsquot som produserer en fargestråle eller en fargeblødning eller en fargespredning (eksemplet ovenfor ble filmet med en Sony PC110, som har dette kjente quotcolor behaviourquot). Videre er det noe som fargeskarphet som følge av at fargeløsningen er lavere enn bildeoppløsningen, noe som for eksempel betyr at 4 piksler deler 1 farge. Videre er det fargeraberasjoner introdusert av kameraets linse system. Videre kan det bli ødelagte DV codecs, som dekoder buggy. Du kan prøve Mainconcepts DV codec () som har et høyt rykte, hvis du mistroker din egen codec. Det er enda noe du kan kalle lysstyrke interlacing. Dette er en opptak fra musikkklippet quotSexyquot utført av quotFrench Affairquot fra TV-kanalen Tango TV (fra Luxembourg). Dette musikklippet ble luftet gradvis. Det arent noen mus tenner hvor som helst i dette klippet. Men du ser quotbrightness interlacing linesquot. Kanskje dette klippet ble spilt inn i interlaced og ble deretter transformert til å være progressiv og disse er deinterlacing gjenstandene som er igjen. Fordi selv med metodene beskrevet på dette nettstedet er det vanskelig å få perfekte resultater. Nei, det er ikke Kylie Minogue og hennes homofile tannlege. Dens vakre Kylie og vakre Jason Donovan utfører citer spesielt for youquot i 1988 i quotoptop av Popsquot Som du ser er det noen deinterlacing gjenstander. Du vil imidlertid ikke merke dem under spillet. Is interlacing a bug Unfortunately this is the way digital camcorders and digital VCRs record and digital broadcasting is done. One second of a movie consists of 25 frames 50 interlaced images. That means that when you deinterlace a movie for your computer or your projector or your TFT monitor, and you want to play it on a standard TV set, your software (or your hardware) have to interlace it again. Example: There are 2 kinds of DVDs: Some have an interlaced format (like the examples above) and some are transferred from film to DVD directly, thus have 25 progressive frames encoded. This is purely a decision of the DVD company. Since TV sets expect you to feed them with 50 images per seconds (whether its from your old analog VHS recorder or from your antenna or from your DVD player) the DVD player needs to convert those 25 progressive frames to 50 images and send them to the TV set. That means they have to get interlaced them (well, its not interlacing in its original sense, but you are making 50 images out of 25 images) instead of letting the TV simply display those original 25 fps. Just recently Panasonic introduced one of the first TV sets to be able to receive progressive frames from the DVD player. So you need 2 things: A special DVD player, that suppresses the 25p-gt50p conversion and this special TV set. Panasonic TX 32ph40d is able to receive progressive frames (Field1 and 2 are half the height of course, but I have resized them to make them comparable) Blending would do this to them: Please note, that not only the area where the movement happened is changed thru blend, but also the green main body. If nothing changes from field to field then quotDeinterlacing by Blendingquot gives you a slight blur. In other words: Deinterlacing by blending (which is one of the most frequent ways to deinterlace) simluates fluent motion by blurring and quotmushesquot 2 consecutive pictures together. Thus in fact you reduce the quality down to a quarter of the possible quality. You could call it: Show both fields per frame. This basically doesnt do anything to the frame, thus it leaves you with mice teeth but with the full resolution, which is good when deinterlacing is NOT needed. You could call it: Dont blend everything but only the mice teeth themselves. This can be done by comparing frames by time or by spaceposition. This gives you good results in quiet scenes where not much is moving, because there is nothing blurred then. You could call it: This seems to me a much better idea than Blending, but unfortunately I dont know any filter or program that can do it. The idea is: Blur the mice teeth where needed, instead of mixing (blending) them with the other field. This way you would get a more film-like look. As you see the blur gets stronger in the direction of the old position. You could even add an effect like this (Motion blur) This motion blur is done nowadays when you need to convert 50fps footage to 25fps footage (to make 50fps camcorder footage look more film-like). Or to make comics and rendering (like quotMonsters Incquot) look more film-like. You could call it: You discard every second line (the movie is half the height then) and then resize the picture during play. That is the same as skipping Field2, Field4, Field6. You could call this quotEven Fields Onlyquot or quotOdd Fields Onlyquot. There are some bad things about it. You lose half of the resolution and the movie becomes kind of stuttering (as mentioned above). That means, that it doesnt play as fluidly as it could be. You could call it: There is also this way: Displaying every field (so you dont lose any information), one after the other ( without interlacing) but with 50 fps. Thus each interlaced frame is split into 2 frames ( the 2 former fields) half the height. As you see, you wont lose any fields, because both are displayed, one after the other. Sometimes quotBobquot is also called quotProgressive Scanquot. However since Bob doesnt analyze areas (Stupid Bob) nor the differences between fields this is an inappropriate synonym. Please see the next example for the quotrealquot quotProgressive Scanquot. You could call it: Analyzing the two fields and deinterlace only parts which need to. The main difference to quotArea basedquot is that it gives you a 50fps movie instead of a 25fps movie, thus leaving you with perfect fluidity of motions. To say it more academically: High temporal and vertical resolution. This is my method of choice. You can achieve this with freeware. Read the advantages and drawbacks on this site. You could call it: Analyzing the movement of objects in a scene, while the scene consists of a lot of frames. In other words: Tracking of each object that moves around in the scene. Thus effectively analyzing a group of consecutive frames instead of just single frames. This is the best solution, but unfortunately only for companies that can pay for expensive hardware solutions. NEVER BE FOOLED: If you see just one single frame instead of the whole movie to show you the quality of any deinterlacing method, be aware. You wont know how good or bad it really is. Because you dont know how fluid the movie plays and how many fine structures are lost and whether the deinterlacing method still fails sometimes or leaves interlaced lines. Instead, compare the deinterlacing methods by watching one minute or so of both movies with still and fast moving scenes. How fluid is it How blurred is it How many interlacing artifacts are left Fluid movie. Nearly all Video Software is able to do it. Video does not need to be converted to fields first. Picture becomes blurred (unsharp) when theres motion. Compression rates are not too good. Even in quiet areas the video gets blurred. Discarding Fields Single Field Mode Nearly all Video Software is able to do it. Sharp picture. 100 deinterlaced movie. There wont be any interlaced lines left. Video does not need to be converted to fields first. Very fast, even on slow computers, because the method consists only of simply deleting every second line. You lose half of the information. (Though even with half of the information it is still much sharper than blending). You lose a little bit of sharpness in quiet scenes, because each frame is half the height and has to be scaled up. Grain seems to be more coarse because it is double sized during play. Movie is not fluid (kind of stuttering continuously). You need to resize the movie during play, so you need a faster processor. Greater visibility of compression artifacts, because the artifacts stay the same size, while the height is cut in half. In other words: When resizing during play you resize the compression artifacts also. Video does not need to be converted to fields first. If the algorithm is well programmed, it will blur the mice teeth in fast movements while preserving sharpness in quiet (no motion) scenes (or parts of the pictures). Does not always eliminate all interlaced lines. Sometimes eliminates the wrong video data. Sometimes complicated parameters that can differ from video material to video material. Click the pic below, and tell me whats best for your movie: Movie can become unnaturally blurred (unsharp) during movements. 720x576-gt720x288 50 fps Super fluid movie. Sharp picture. 100 deinterlaced movie. There wont be any interlaced lines left. Greater visibility of compression artifacts, because the artifacts stay the same size, while the height is cut in half. In other words: When resizing during play you resize the compression artifacts also. How to prevent resizing artifacts . Jumping artefacts, mostly visible with TV logos (see example below). In quiet scenes without movements (where interlacing would not matter), you lose a little bit of sharpness, because each frame is half the height and has to be scaled up. Only a few software programs are able to deinterlace by bob. You need to resize the movie during play so you need a faster processor. You need to play 50fps, so you need a faster processor or a faster codec. Due to the anti-bobbing filter (see below) the frames are blurred a little bit. Because the movie has to be split into fields by Avisynth (see below), the movie encoding speed is limited by Avisynth, which can be quite slow. The resulting file size is quite big compared to the other methods. Combinations of the methods above DURING PLAY Can result in all the pros of the methods above Can result in all the cons of the methods above Since the material can result in both 25fps and 50fps (switching between these two during play), this method can only be used for watching movies rather than convertingencoding them. I doubt, that there is any program that can do it fast enough. There was a DVD player software that could do it, but I dont know if it was supported by hardware. There is also DScaler, but its useless for me since a) I was never able to get it to work with my 3 WinTV cards b) it doesnt work with recorded movies (just with movies currently displayed) c) it is already partly integrated in WinTV d) its development is very slow (halted) So you want to tell your friends to have a horsepower computer, install a new player, install deinterlacing software and still live with a result worse than deinterlacing properly in the first place resizing down to 384x288 or below The easiest method. Any video editing program can do it, even if it doesnt feature a quotdeinterlace methodquot The file sizes are quite small. The result can be exactly the same as quotBlendquot, except for the heightwidth, which makes the picture a little more unsharp. This is the easiest way to deinterlace videos. Example: you have a typical DV Camera footage of 720x576 (interlaced) and you simply resize it down to 384x288. Why 384x288 Because: 1) 2885762, that means, that its fast to calculate and quality loss is low. 2) 384x288 is 4:3 but mainly for reason 3) Movies that are 288 pixels high and below cannot be interlaced. So 384x288 is the largest size that ensures you have a progressive-frames-only video. Combination of BobWeave (Progressive Scan) 720x576-gt720x576 50 fps Super fluid movie. Unbelievably sharp picture. 99 deinterlaced movie. (99 means that there is a minimal chance that mice teeth stay visible here and there) In quiet scenes without movements (where interlacing would not matter), you keep the full resolution, while the moving scenes are fluid. You dont have to play with bobdebob filters (see below). No resizing is done. This leaves you extra sharpness. Jumping artifacts, mostly visible with TV logos (see example below). Only few software (like Virtualdub and maybe Cleaner ) is able to deinterlace like this. You need to play 50fps, so you need a faster processor or a faster codec. Because the movie has to be split into fields by Avisynth (see below), the movie encoding speed is limited by Avisynth, which can be quite slow. The resulting file size is bigger than with the other methods. See file size comparison link below. 720x576-gt720x576 50 fps Professional hardware equipment can get very expensive. How expensive Can you say 50000 Or think 100000 Then spell T-E-R-A-N-E-X. This is equipment as used for professional broadcasting: Teranex . There is a software solution by the German Fraunhofer Institute (yes, those who invented mp3): HiCon 32. Brilliant piece of work. Some PC graphic cards (e. g. NVidia) and Video cards (e. g. Hauppauge) have implemented onboard deinterlacing. Lets hope this gets standard as time goes by. Despite the above mentioned counterpoints, deinterlacing by quotBobquot or quotWeaveBobquot gives you excellent results (the best results of all available software methods). The reason is simple: How can you expect to have excellent results when you convert 50 fields per second (50 snapshots per second) to 25 snapshots per second If you dont want to use BobProgressive Scan, I would suggest to use Deinterlace by Discarding Fields, because its fast ( can be done with a slow PC) you can do it with the built-in filter of Virtualdub (see below), ( is free and easy to do) the image stays very sharp it leaves absolutely no interlaced lines the resulting filesizes are small I have encoded a video with the above methods and different options to compare the file sizes . Note: When video editing software has an option quotDeinterlacequot without further explanation it pretty sure means quotBlendquot or quotDiscard Fieldquot. Open quot Example. avs quot with Virtualdub and youll notice that you have a movie with fields instead of frames. Half the height, but no interlaced lines. Click here if your. avs produces an error or doesnt work. Now there are 3 ways how you could continue: 4a) The worse method (but still very good): Bob Go to Virtualdubs filter menu and quot Add.. quot the built-in filter quot Field bob quot. Without this filter the movie bobs (jumps up and down). Why does the movie bob Choose quotQuarter scanline downquot amp quotQuarter scanline upquot or vice versa, depending on your video material. If you choose the wrong one, your video will jump up and down even more (like in the Persil commercial below). Unfortunately this anti-bob filter also blurs a little bit. So you can add Virtualdubs built in filter quot Sharpen quot right after quot Field Bob quot and then sharpen the amount you like. 4b) The best method (but more time consuming an bigger file size): Progressive Scan (WeaveBob) Get the following the Virtualdub filter quotDeinterlace - Smooth quot from the website of Gunnar Thalin. Copy it to Virtualdubs quotpluginsquot folder. Go to Virtualdubs filter menu and quot Add.. quot this filter. You may have to check quotAlternate field orderquot within this filter. But this depends upon your movie source. 4c) Not the best and not the worst method is: Bob by Avisynth Simply change the avisynth script quot Example. avs quot to: Select ratio 4:3 from the menu of your player. If your player cannot choose a ratio then you will see the movie half size (but it will still be very fluid). Switch to fullscreen mode. Disable any DivX postprocessing. Postprocessing will slow down the playing speed. Even with little postprocessing the movie wont play fluidly with a fast CPU. So set the Quality level (post-processing level) to quotMINquot. Actually you shouldnt use the standard DivX Decoder from DivX. Get the freeware decoder suite FFDShow . The faster your processor the better. It should be gt 0.6 GHz otherwise you drop frames and it looks as if the movie was badly coded. I have several computers and I can watch the movies below smoothly with my 650Mhz Athlon. It may also depend on the speed of your graphics card. Yes, I know this capture is from an old DivX version. But I wont update it everytime DivX releases a new version. brit. avi (5.4 MB) Bob (method 4a) 50 fps 17 seconds Video Codec: DivX 5 (quality based: 93) Audio Codec: mp3 Directly recorded from MTVs Digital (MPEG-2) Broadcasting and converted to a DivX. avi You have to watch the movie 4:3 1) Please note how fluid the movie is 2) but also note that the MTV logo at the upper right corner is flimmering a bit. More about flimmering. 3) this is not the best quality, because I used quotBobquot instead of quotProgressive Scanquot . 4) Also pay attention to the black dancer at the right, hes quite good. 5) This performance of Britney Spears (MTV VMA 2001) was aired 50fps. Justin Timberlakes performance one year later at the MTV Video Music Awards 2002 was aired also 50fps, but these frames had been artificially interlaced from 25 progressive frames, to make it look more quotfilm-likequot. Interlacing is visible in movies which have a height gt 288 (NTSC: gt 240). So when you capture a movie, say, 384x288 or smaller you wont see interlaced frames. Its practically blending. Some capture cards dont blend but drop every second field with sizes smaller or equal to 288. The term quotHalf ImagequotquotHalf Picturequot is another word for quotFieldquot. The quotHalfquot relates to the fact, that the half resolution (e. g. 288 pixels) of the 2 fields (half images) is combined to full resolution (576 pixels) in quiet areas. In my personal opinion PAL is better than NTSC: Because in the end resolution matters. NTSC has only 83 of PALs resolution. And PALs resolution is already bad enough. Cinema movie are recorded with 24 fps. To convert them to PAL (25 fps) you simply make the movie run faster (4 faster, some people with sensitive ears may hear the raise in tone). But to convert it to NTSC (30 fps) is a completely different story. PAL is more common worldwide than NTSC. About 4 times as many people live in a PAL country than in an NTSC country. I am not talking about other stuff like Hue Fluctuation, Contrast, Gamma ratio and so on ( N ever T he S ame C olor, because of its color problemsquot), because PAL is also not the best in these regards. I am talking about resolution and frame rate which are the biggest arguments for Pal. As you see from the reasons above this has nothing to do with anti-Amerikanism or anti-Japanism. Its just based on pure logic. I have seen PAL movies and NTSC movies and the clarity of PAL is much better. Their fluidity (50 images per second vs. 60 images per second) is nearly the same. There are camcorders (like Panasonics AG-DVX100) that can film with 24 frames per second. Without fields. Just progressive ( non-interlaced) frames. Why 24 and not 25 To give you the cinema feeling. So the info on this site regarding deinterlacing movies doesnt apply to footage filmed like that. When you buy a DVD, some are encoded with interlaced frames and some are progressive. The output is always interlaced of course (except for some special DVD players) because TV Sets usually dont support progressive input. DivX suckz and DivX rulez. DivX rules because the de coder is fast and free. DivX rules because the en coder is good and fast. DivX sucks because its expensive as hell if you want to commercially publish your own movies: You have to pay DivX Networks for the encoder AND for the encoded film if you want to use it commercially. AND you have to pay the MPEG patent holders (mpegla ) per movieper minute (because DivX is Mpeg-4). The MPEGLA fee for itself is already way too high. Please see my website 1-4a for movie utilities.

No comments:

Post a Comment