Obiektyw zwany „rybim okiem” ma szeroki kąt widzenia, ale też zniekształca obraz. Uzyskujemy dzięki temu bardzo ciekawy efekt, ale niestety czasami jest on niepożądany. Być może wkrótce będziemy mogli mieć i szeroki kąt, i „normalny” obraz.
Zespół z Politechniki Łódzkiej chce opracować system, który w czasie rzeczywistym będzie modyfikował film nakręcony przy użyciu takiego obiektywu i skoryguje deformację obrazów. Pracuje nad nim Przemysław Sękalski z Katedry Mikroelektroniki i Technik Informatycznych wraz ze swoim zespołem.
Kąt widzenia naszych oczu to prawie 180 stopni; oczy widzą więc, co się dzieje z lewej strony, prawej, z góry, z dołu, a w aparatach fotograficznych, kamerach, obraz jest znacznie węższy — wyjaśnia Przemysław Sękalski.
Chcąc uzyskać szeroki obraz z kamery stosujemy specjalny obiektyw zwany „rybim okiem”. Jednak obraz widziany przez taki obiektyw jest mocno zniekształcony. To, co znajduje się w środku obrazu wydaje się większe, a z kolei obiekty przy brzegach kadru — mniejsze. Poza tym linie proste na obrazie zakrzywiają się. Jak przyznaje dr Sękalski, istnieją już specjalne algorytmy, które pomagają przekształcać obrazy z „rybiego oka”, ale na obliczenia potrzeba zwykle czasu. Tak więc na razie filmu o dużej rozdzielczości nie można korygować na żywo, a jedynie offline.
My staramy się opracować takie algorytmy i tak zaimplementować je w tanich układach, żeby kamery z taką funkcjonalnością stały się powszechne — dodaje Sękalski.
Być może taki system mógłby być wmontowany w każdy telefon czy smartfon z kamerą. Problemem jest opracowanie dedykowanego układu, który do wykonania takich obliczeń nie pobierałby zbyt dużo energii. Niestety, procesory współczesnych komórek niezbyt by się do tego nadawały, bo ich praca szybko wyczerpywałaby baterię.
Mamy już jednak pewne wizje rozwiązań. Dla małych struktur te algorytmy są zweryfikowane, a teraz trwają testy na większych układach — zdradza Sękalski.
Na zdjęciach wykonanych tym nietypowym obiektywem na środku gęstość informacji może być większa, a więc można zdobyć więcej szczegółów o obrazie, a na brzegach — mniejsza. Pytanie tylko jak dużo informacji potrzebujemy przetwarzać dalej.
Często jest tak, że widzimy coś kątem oka i coś przyciąga naszą uwagę, a potem obracamy głowę, aby się temu przyjrzeć. Tutaj chcemy wykorzystać podobną zasadę. Z jednej strony będziemy mieć przetwarzanie na krawędziach, a ewentualnie więcej informacji będzie można z tego wydobyć obracając kamerę — opowiada lider projektu.
System mógłby znaleźć zastosowanie w branżach, które wykorzystują kamery — od monitoringu mieszkań, przez rozmowy wideo, aż po monitoring Ziemi z pokładu samolotów. Dr Sękalski przyznaje, że nad podobnymi algorytmami pracują inne zespoły na świecie. W ramach prac polskiego zespołu powstać ma system, który pozwoli na uzyskiwanie skorygowanych obrazów o rozdzielczości HD.