fbpx

Jeden obraz wart tysiąca… obrazów – systemy wizyjne i pomiary multispektralne w przemyśle

Jeden obraz wart tysiąca… obrazów – systemy wizyjne i pomiary multispektralne w przemyśle

Na początku było oko

Nie pomyli się chyba nikt, kto powie, że dla człowieka wzrok jest najważniejszym ze zmysłów. Najsilniej też odczuwa jego brak. Ten zmysł od zarania dziejów pozwala mu identyfikować przedmioty, istoty żywe, orientować się w przestrzeni, obierać kierunki, unikać zagrożeń, czy też porozumiewać się.

 

Oceniamy nasz świat przede wszystkim za pomocą wzroku. Mało kto z nas zdaje sobie sprawę, że widzenie jest efektem kombinacji różnych czynników, i jest ograniczone naturalnymi możliwościami naszego organizmu. Nie możemy tak naprawdę powiedzieć, jaka jest rzeczywistość obserwowana naszymi oczami- to tylko jej interpretacja, jaką przygotowały dla nas oczy, mózg i inne narządy naszego organizmu odpowiedzialne za wzrok.

 

Dlatego ludzki wzrok nie jest zmysłem doskonałym. Żeby nie szukać daleko, istnieją setki, jeśli nie tysiące gatunków zwierząt, które dysponują lepszym od człowieka wzrokiem. Niektóre lepiej widzą na dużą odległość, inne doskonale z bliska, jeszcze inne nocy i w trudnych warunkach oświetleniowych – rozwinęły znacząco różne od naszych mechanizmy przetwarzania promieni świetlnych. Na przykład w przeciwieństwie do ludzi ptaki mogą widzieć spektrum kolorów: czerwonego, zielonego, niebieskiego i ultrafioletowego. Niektóre skorupiaki (np. krewetki, które mają aż 16 fotoreceptorów, podczas gdy ludzie mają zaledwie trzy) używają zestawu filtrów, aby rozdzielić światło ultrafioletowe na bardziej subtelne kolory. Węże widzą podczerwień za sprawą czujników podczerwieni umieszczonych w ich głowach: te u grzechotnika są co najmniej 10 razy bardziej czułe niż najlepsze sztuczne czujniki podczerwieni. Pszczoły z kolei identyfikują ultrafioletowe wzory w centrum kwiatu- kolory płatków i sygnały świetlne w postaci wzorów UV informują pszczoły o ilości nektaru i pyłku w roślinie. Skarabeusze i nietoperze wykorzystują natomiast światło spolaryzowane.

Później szkiełko

Nic więc dziwnego, że gatunek ludzki od zawsze poszukiwał sposobów sztucznej poprawy możliwości wzroku, osiąganych najczęściej za pomocą rozmaitych wynalazków – od prymitywnych szkieł powiększających, przez lunety, lornetki, tele- i mikroskopy po nowoczesne, wspierane elektronicznie systemy optyczne.I to właśnie tym ostatnim chcielibyśmy poświęcić nieco więcej uwagi w tym artykule.

 

Kilkadziesiąt lat temu zaczęły powstawać pierwsze częściowo, a wkrótce także w pełni automatyczne systemy wizyjne, zwane także wizją maszynową (ang. machine vision), będące układami współpracujących ze sobą elektronicznych urządzeń, których funkcją jest automatyczna analiza wizyjna otoczenia na podobieństwo zmysłu wzroku u ludzi.

 

Widzenie maszynowe to najkrócej mówiąc zdolność komputera do widzenia. Kamera (lub kamery) video oraz układ zamieniający sygnał analogowy na cyfrowy zastępuje tu ludzkie oko (oczy), a system przetwarzający dane cyfrowe pełni tu funkcje układu nerwowego.

 

Dwa ważne parametry każdego systemu wizyjnego to czułość i rozdzielczość. Czułość oznacza zdolność widzenia w różnych warunkach oświetleniowych i/lub zdolność detekcji słabych impulsów w niewidzialnych zakresach fal.

Rozdzielczość odzwierciedla z kolei jakość rozpoznania obiektu. Czułość i rozdzielczość są od siebie zależne – w pewnym uproszczeniu można przyjąć, że zwiększanie czułości obniża rozdzielczość, a zwiększanie rozdzielczości zmniejsza czułość.

 

Ludzkie oko ma czułość pozwalającą na wychwytywanie fal o długości od 390 do 770 nanometrów (nm), podczas gdy kamery mogą dysponować czułością nieporównywalnie większą.

 

Człowiek stworzył więc urządzenia znacznie przekraczające możliwości jego własnych oczu. Dość powiedzieć, że możliwe jest obserwowanie, a nawet dokładna analiza obiektów i zjawisk zupełnie niewidzialnych dla nieuzbrojonego ludzkiego oka.

Do czego wykorzystuje się systemy wizyjne?

System wizyjny składa się z urządzeń pozyskujących informacje (pojedynczej kamery/sensora lub układu kamer), urządzenia służącego do gromadzenia i przetwarzania danych oraz urządzenia analizującego dane (procesor lub komputer). Przemysłowy system wizyjny służy najczęściej do sprawdzania cech fizycznych obiektów, takich jak: wymiary, kształt, kolor, faktura powierzchni. Pozyskane przy jego pomocy dane stanowią podstawę do podjęcia odpowiedniej decyzji (np. o kolejnym etapie procesu wytwórczego).

 

Chociaż obecnie przemysłowe systemy wizyjne stosuje się najczęściej do kontroli jakości produktów, coraz powszechniej wdraża się je już na etapie produkcji, do jej nadzorowania przez ocenę i informowanie, czy parametry produkcji zbliżają się do wartości granicznych. Pozwala to zapobiegać wytwarzaniu produktów (pojedynczych czy też całych partii) wadliwych.

Wizja komputerowa > wizja maszynowa

Wizja maszynowa to technologia, która na dobre zadomowiła się w przemyśle – jest wykorzystywana na świecie od około 30 lat. Komputeryzacja i rozwój technologii cyfrowych, jaki nastąpił od tamtych czasów, pozwolił na dalszą ewolucję systemów wizyjnych w stronę szerszej i bardziej zaawansowanej kategorii, która obecnie nosi nazwę rozpoznawania obrazu, czy też bardziej precyzyjnie “widzenia komputerowego” (ang. computer vision). Najkrócej rzecz ujmując jest to przetwarzanie obrazu przez maszynę za pomocą urządzeń zewnętrznych (np. kamera, skaner) w opis cyfrowy tego obrazu celem dalszego przetwarzania.

 

Można więc powiedzieć, że widzenie komputerowe niejako zawiera w sobie widzenie maszynowe, ale jednocześnie idzie znacznie dalej.

 

Podczas gdy rezultatem pracy maszynowego systemu wizyjnego najczęściej jest prosta informacja (typu “w tym obrazie znajduje się pięć jabłek” lub “nakrętka na tym obrazie ma wadę”- w pewnym uproszczeniu oczywiście), to wizja komputerowa zapewnia nie tylko obraz, ale także jego cyfrową interpretację. Wizja komputerowa może procesować rozmaite parametry obrazów dwu- i trójwymiarowych, często nieustandaryzowane, w których obiekty i ich działania mogą być nieprzewidywalne. Daje więc nieporównywalnie większe możliwości.

Od kamer monochromatycznych po sensory hiperspektralne

Sercem systemów wizyjnych są kamery – sensory, które przeszły i wciąż przechodzą ewolucję. Pokrótce przedstawiamy poniżej ich główne rodzaje.

 

Powszechna wciąż w zastosowaniach przemysłowych kamera monochromatyczna to najbardziej podstawowe rozwiązanie w systemach wizyjnych.

W kamerach monochromatycznych pojedynczy piksel niesie informacje jedynie o natężeniu padającego światła. Do wielu zastosowań w przemysłowych systemach wizyjnych jest to rozwiązanie wystarczające, a dzięki zazwyczaj większej rozdzielczości takich układów (którą uzyskuje się dzięki brakowi filtrów koloru), czułości i kontrastowi oraz szybszemu przetwarzaniu obrazów monochromatycznych w połączeniu z niższą ceną urządzenia często bywa wręcz optymalne.

 

Kolejny poziom to kamera kolorowa, która przechwytuje trzy spektralne punkty danych w modelu RGB- od pierwszych liter angielskich nazw barw: R – red (czerwonej), G – green (zielonej) i B – blue (niebieskiej).

 

Wyższe miejsce w hierarchii systemów wizyjnych zajmuje obrazowanie wielospektralne znane też jako multispektralne. Jest to tworzenie obrazów, w których każdy piksel zawiera więcej niż trzy spektralne punkty danych, zwykle od 4 do 20 (przy czym – w odróżnieniu od obrazów hiperspektralnych, o których powiemy niżej – nie muszą to być pasma, znajdujące się obok siebie). Obrazy multispektralne są generowane przez czujniki, które mierzą energię odbitą w obrębie kilku określonych sekcji (zwanych również pasmami) widma elektromagnetycznego.

 

Pierwotne kamery wielospektralne wychwytywały cztery zakresy danych: RGB i pasmo NIR (bliskiej podczerwieni). Dzisiaj jest to pełna przestrzeń barw w zakresie światła widzialnego, a także mikrofal, dalekiej i bliskiej podczerwieni oraz ultrafioletu. Domeną czujników hiperspektralnych, które mierzą energię w węższych i jednocześnie liczniejszych pasmach niż czujniki wielospektralne, jest możliwość pomiaru dowolnego wycinka widma elektromagnetycznego. Obrazy hiperspektralne mogą zawierać od kilkudziesięciu aż do kilkuset sąsiednich pasm widmowych. Liczne wąskie pasma czujników hiperspektralnych zapewniają ciągły pomiar w założonym zakresie widma elektromagnetycznego i dlatego są bardziej czułe na subtelne zmiany energii odbitej. Obrazy wytwarzane na bazie odczytów z czujników hiperspektralnych zawierają znacznie więcej danych niż obrazy z czujników wielospektralnych i mają większy potencjał wykrywania szczegółowych różnic i detali. Dla przykładu do obrazowania obszarów leśnych można użyć obrazów wielospektralnych. Obrazowanie hiperspektralne z kolei umożliwi kolejny poziom szczegółowości, jakim może być mapowanie gatunków drzew w lesie.

 

Dzięki swojej bogatej “gęstości informacyjnej” obrazy hiperspektralne stanowią najlepszy materiał źródłowy dla komputerowych systemów wizyjnych stosowanych czy to w przemyśle czy w teledetekcji / obserwacjach zdalnych. To bogactwo danych niesie ze sobą także pewien problem – nieodpowiedni dobór wszystkich kanałów może skutkować tym, że pozyskanych danych będzie po prostu zbyt dużo w stosunku do potrzeb i oczekiwań – wiele z nich będzie zwyczajnie zbędnych, czy wręcz utrudniających odczytanie potrzebnych informacji. Pewnym minusem są także znacząco wyższe koszty takich rozwiązań oraz wysoki stopień ich złożoności. To pokazuje, jak ważny jest umiejętny dobór narzędzi do konkretnego zadania.

Jak to działa?

O mechanizmach obserwacji hiperspektralnych napisaliśmy tutaj (kliknij). Zapraszamy do lektury.

Bądź na bieżąco!