Czy ludzie kiedykolwiek będą rozmawiać z kaszalotem?

Kaszaloty [ang. sperm whales] są jednymi z najgłośniejszych żyjących zwierząt na planecie, wydają dźwięki skrzypienia, pukania i klikania staccato, aby komunikować się z innymi kaszalotami, które są oddalone od nich od kilku do kilkuset metrów.

Ta symfonia dzwieków, znana jako kody, może być na tyle wyrafinowana, by kwalifikować się jako pełnoprawny język. Ale czy ludzie kiedykolwiek zrozumieją, co mówią te kaszaloty?

Odpowiedź brzmi być może, ale najpierw naukowcy muszą zebrać i przeanalizować bezprecedensową liczbę komunikatów kaszalotów.

Mając mózgi sześć razy większe od naszego, kaszaloty ( Physeter macrocephalus ) mają skomplikowane struktury społeczne i spędzają większość czasu na socjalizacji i wymianie kodów. Te wiadomości mogą trwać zaledwie 10 sekund lub trwać ponad pół godziny. W rzeczywistości „złożoność i czas trwania wokalizacji kaszalotów sugeruje, że są one przynajmniej w zasadzie zdolne do wykazywania bardziej złożonej gramatyki” niż inne zwierzęta, zgodnie z artykułem o kaszalotach opublikowanym w kwietniu 2021 r. na serwerze preprintów arXiv.org.

Ten artykuł, w ramach interdyscyplinarnego projektu znanego jako CETI (Cetacean Translation Initiative), przedstawia plan dekodowania wokalizacji kaszalotów, najpierw poprzez zbieranie nagrań kaszalotów, a następnie przy użyciu uczenia maszynowego, aby spróbować zdekodować sekwencje dźwięków używanych do komunikowania się. CETI zdecydowało się na badanie kaszalotów w porównaniu z innymi wielorybami, ponieważ ich dźwięki mają strukturę podobną do alfabetu Morse’a, którą sztuczna inteligencja (AI) może łatwiej przeanalizować.

Naruszenie powierzchni

Niewiele ludzie wiedzą o kaszalotach, a wiedzę o nich zdobyliśmy całkiem niedawno. Dopiero w latach 50-tych zauważyliśmy, że wydają dźwięki i nie było wiadomo, czy używają tych dźwięków do komunikacji aż do lat 70-tych, jak wynika z nowych badań opublikowanych przez CETI.

Wydawane przez nich dzwieki wydaje się służyć dwóm celom. Kaszaloty mogą nurkować na głębokości 1200 metrów, czyli trzy razy głębiej niż nuklearne łodzie podwodne, według Woods Holes Oceanographic Institution. Ponieważ na tych głębokościach panuje ciemność, wyewoluowała u nich zdolność używania dźwięków do echolokacji – rodzaj sonaru – aby szukać kałamarnic i innych morskich stworzeń. Ten sam mechanizm wydawania dźwięków jest również używany w ich społecznych wokalizacjach, chociaż zgodnie z artykułem CETI dźwięki komunikacyjne są bardziej “ciasno upakowane”.

Odkrycie tego było trudne, ponieważ kaszaloty „były tak trudne dla ludzi do badania przez tyle lat”, powiedział David Gruber, biolog morski i lider projektu CETI. Ale teraz „w rzeczywistości mamy narzędzia, aby móc przyjrzeć się temu bardziej dogłębnie w sposób, w jaki nie byliśmy w stanie wcześniej”. Te narzędzia obejmują sztuczną inteligencję, robotykę i drony, powiedział.

Pratyusha Sharma, badaczka danych w CETI i doktorantka w Laboratorium Informatyki i Sztucznej Inteligencji w MIT, opowiedziała więcej o najnowszych osiągnięciach w sztucznej inteligencji i modelach językowych, takich jak GPT-3, który wykorzystuje głębokie uczenie do konstruowania tekstów lub opowiadań przypominających ludzkie. Naukowcy mają nadzieję, że te same metody można zastosować do wokalizacji kaszalotów. Jedyny problem: te metody mają “żarłoczny apetyt na dane”.

Projekt CETI ma obecnie nagrania około 100 000 dźwięków kaszalotów, skrupulatnie gromadzone przez biologów morskich przez wiele lat, ale algorytmy uczenia maszynowego mogą potrzebować około 4 miliardów. Aby wypełnić tę lukę, CETI tworzy wiele zautomatyzowanych kanałów do zbierania nagrań dźwięków kaszalotów. Należą do nich podwodne mikrofony umieszczone w wodach często odwiedzanych przez kaszaloty, mikrofony, które mogą zostać zrzucone przez latające drony, gdy tylko zauważą gromadę kaszalotów gromadzących się na powierzchni, a nawet automatyczne ryby, które mogą “dyskretnie śledzić i słuchać kaszalotów z odległości”.

Ale nawet przy tych wszystkich danych, czy będziemy w stanie je rozszyfrować? Wiele algorytmów uczenia maszynowego ma większe trudności z analizą dźwięku niż tekstu. Na przykład może być trudne przeanalizowanie miejsca, w którym zaczyna się i kończy jedno słowo. Jak wyjaśniła Sharma: „Przypuśćmy, że jest słowo „parasol”. Czy „par” to słowo, czy „paras” czy „parasol”? Bariery między wypowiadanymi słowami są bardziej niejednoznaczne i mniej regularne, a zatem stworzenie wzorce może wymagać większej ilości danych.

To nie jedyna trudność, z jaką będzie musiała się zmierzyć CETI. „Niezależnie od tego, czy ktoś pochodzi, powiedzmy, z Japonii, czy z USA, czy skądkolwiek, światy, o których mówimy, są bardzo podobne; rozmawiamy o ludziach, rozmawiamy o ich działaniach” – powiedziała Sharma. „Ale światy, w których żyją te kaszaloty, jest inny, prawda? Ich zachowania są inne”.

Co więcej, wiadomo, że kaszaloty mają dialekty, jak wynika z badań opublikowanych w 2016 r. w czasopiśmie Royal Society Open Science, w których przez sześć lat analizowano kody dziewięciu grup kaszalotów na Karaibach.

Ale te trudności są również tym, co sprawia, że ​​projekt jest tak wartościowy. To, co dokładnie jeden kaszalot mówi drugiemu, pozostaje tak ciemne i mętne jak wody, w których pływają, ale ta tajemnica sprawia, że ​​wszelkie odpowiedzi, które CETI uzyska są jeszcze bardziej intrygujące. Jak ujął to Gruber: „Dużo się uczymy, kiedy próbujemy spojrzeć na świat z perspektywy drugiego człowieka”.

Źródło: Randyn Bartholomew

The Deepest Divers

Cetacean Translation Initiative: a roadmap to deciphering the communication of sperm whales

Individual, unit and vocal clan level identity cues in sperm whale codas

Zdjęcie: Reinhard Dirscherl via Getty Images

Subscribe
Powiadom o
guest
0 komentarzy
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x