Nieuwe videoformaten brengen natuurlijk ook talloze uitdagingen met zich mee op softwarevlak. Zo moeten er nieuwe technieken worden ontwikkeld om die beelden vast te leggen, en moeten de zware videobestanden op een efficiënte manier via internet doorgestuurd kunnen worden. Tenslotte rijst ook de vraag hoe die nieuwe videoformaten voor een optimale kijkervaring kunnen zorgen.
Het zijn allemaal uitdagingen die iMinds nauw aan het hart liggen. iMinds-onderzoekers aan de universiteiten van Brussel, Gent, Hasselt en Leuven hebben het voorbije anderhalf jaar dan ook intensief samengewerkt om een aantal belangrijke doorbraken te realiseren. Eerder deze maand gaven ze de Vlaamse industrie meer inzicht in hun onderzoeksresultaten. Hieronder en aantal opvallende verwezenlijkingen.
300 keer sneller
Met multiview-beeldschermen kun je videobeelden vanuit verschillende perspectieven bekijken door voor het scherm heen en weer te bewegen, en dat zonder speciale bril.
"In theorie zou je voor elk van die perspectieven een aparte camera nodig hebben, maar in de praktijk lukt dat uiteraard niet. Het Holografika-scherm bijvoorbeeld waarop we onze experimenten uitvoeren, accommodeert maar liefst een zeventigtal views,” zegt Jan Aelterman (iMinds - IPI - UGent). “Die views worden gecapteerd door een beperkt aantal camera’s en de overgangen ertussen worden op een wiskundige manier berekend. Dat vraagt echter enorm veel rekenkracht en tijd: maar liefst 181 uur voor een stukje film van 45 seconden. Maar dankzij iMinds-onderzoek kunnen deze berekeningen nu 300 keer sneller worden uitgevoerd: wat tot voor kort 181 uur in beslag nam, kunnen we nu in 37 minuten.”
Smart streaming
In 2019 zal – volgens sommige studies – het internetverkeer voor 80% uit videomateriaal bestaan. En dat zal alleen maar toenemen wanneer 4K- en 360°-video hun intrede doen.
“Om ervoor te zorgen dat onze communicatienetwerken niet onder die druk bezwijken, hebben we een aantal oplossingen uitgewerkt,” zegt Glenn Van Wallendael (iMinds - Data Science Lab - UGent). “Een eerste onderzoekstraject ging uit van de assumptie dat het doorsturen van volledige 360°-videostreams naar elke individuele gebruiker geen steek houdt; in plaats daarvan is het veel efficiënter om enkel die stukken door te sturen die door de gebruiker in kwestie bekeken worden. Dat traject heeft ondertussen geresulteerd in unieke algoritmen die ‘begrijpen’ waar iemand naar kijkt, en in functie daarvan de videostream optimaliseren.”
“Daarnaast hebben we algoritmen ontwikkeld die de inhoud van videostreams interpreteren, en op basis daarvan de nodige bandbreedte voorzien. Zo zal – tijdens een videoconference bijvoorbeeld – het kanaal dat statische slides projecteert minder bandbreedte toegewezen krijgen dan het kanaal dat de eigenlijke video doorstuurt,” aldus Rui Zhong (iMinds - ETRO - VUB). “Dankzij die dynamische manier van werken wordt de schaarse bandbreedte op een optimale manier gebruikt.”
Curved screens
Gebogen schermen voor thuisgebruik openen een heel nieuwe wereld qua kijkervaring en brengen het bioscoopgevoel tot in de woonkamer. Maar klassiek opgenomen beelden projecteren op zo’n curved screen is niet evident. Zo worden sommige stukken beeld geknipt en andere dan weer uitgerekt.
"We zijn erg trots dat wij een van de eerste onderzoeksgroepen zijn die beelden wel op een correcte manier op een curved screen kunnen projecteren,” zegt Ruxandra Florea (iMinds - ETRO - VUB). “Onze manier van werken houdt rekening met de context – en de diepte – van het beeld. Dit betekent dat er geen objecten uit het beeld geknipt worden en dat objecten niet uitgerekt worden. De technologie kan nu al automatisch worden toegepast op alle mogelijke foto’s, en in een volgende stap is 2D-video aan de beurt.”
"Sinds Thomas Edison in 1891 met zijn kinetograaf een van de eerste video-opnames maakte, is er fundamenteel niet zoveel veranderd aan de manier waarop we met video omgaan: de beelden die we bekijken, werden als dusdanig ook door onze videocamera’s opgenomen,” besluit prof. dr. Peter Schelkens (iMinds - ETRO - VUB). “Dat staat nu echter op het punt te veranderen: in de toekomst zullen beelden gecapteerd worden, en daarna worden onderworpen aan heel wat berekeningen – wat we ‘computational imaging’ noemen. Eigenlijk komt het erop neer dat we niet langer (enkel) zullen zien wat onze camera’s hebben opgenomen; heel wat beelden worden voortaan ook synthetisch aangemaakt. En daarin kadert het baanbrekende onderzoek dat we de afgelopen maanden hebben gevoerd.”