Fabio Moioli

Różnorodne inteligencje

Jeden z wiodących ekspertów w dziedzinie AI, obecnie wybiera najlepszych specjalistów w branży. Zaczynając od porównania „ludzkiej” i „sztucznej” inteligencji, w wywiadzie z Fabio Moioli, lutowe „Tracce” zgłębiają ten temat
Davide Perillo

„Od czasu do czasu, żartobliwie, mówię, że po tylu latach zajmowania się danymi i algorytmami, zdecydowałem się zająć ludzką inteligencją właśnie wtedy, gdy cały świat zaczynał mówić o sztucznej inteligencji: to były dokładnie dni, kiedy uruchomiono ChatGPT...”. To właśnie w listopadzie 2022 roku Fabio Moioli, inżynier, menedżer, najlepszy głos na LinkedIn (gdzie śledzi go 125 000 osób) i jeden z wiodących ekspertów - nie tylko we Włoszech - w dziedzinie sztucznej inteligencji, przeniósł się z Microsoftu do Spencer Stuart, międzynarodowej firmy head huntingowej. Wcześniej świat telekomunikacji, McKinsey, Capgemini... Zawsze zajmował się technologią i danymi, ale także spotkaniami, szkoleniami, konferencjami, popularnymi artykułami. Z coraz większym naciskiem na rewolucję obiecaną przez sztuczną inteligencję. „Kiedyś mówiłem ludziom o OpenAI na konferencjach i wszyscy patrzyli na mnie, nie wiedząc, co to jest. Ale jeśli chcemy zdefiniować punkt zwrotny, powiedziałbym, że w 2016 roku, kiedy duży nacisk położono na deep learning, z AlphaGo Google i samym OpenAI. Tam zaczęliśmy jeszcze wyraźniej dostrzegać perspektywę i potencjał”.
Teraz, zawodowo wybiera najlepszych menedżerów w branży, łącząc wiedzę techniczną i czynnik ludzki, niemal naturalne jest, że dialog zaczyna się od tego miejsca, od podobieństw i różnic między naturalną a sztuczną inteligencją.

Jak bardzo są one porównywalne? Czy sztuczna inteligencja to rzeczywiście inteligencja, czy może coś więcej? I jakim wyzwaniem jest dla nas, pod względem tego, jak używamy rozumu i poznajemy rzeczywistość, pogodzenie się z tą rewolucją?
Pozwolę sobie poczynić kilka założeń. Po pierwsze, dlaczego nazywa się to „sztuczną inteligencją”: ponieważ jest to coś, co się uczy, co może się dostosować. „Klasyczny” program komputerowy, niezależnie od tego, jak potężny by nie był - i być może pozwoliłby umieścić człowieka na Księżycu - wciąż jest narzędziem, które robi dokładnie to, co mu każę. Jeśli każę kalkulatorowi policzyć ile jest 2+2, to liczy „2+2=4”, ponieważ nauczyłem go tego, zakodowałem to w kalkulatorze. W sztucznej inteligencji, jeśli pokażę algorytmowi wiele zdjęć kota, to zrozumie; i stopniowo nauczy się rozpoznawać kota, nawet jeśli ma tylko trzy nogi, bo może miał wypadek. Jest więc inteligentny w uczeniu się, ponieważ „inteligencja” ma związek z uczeniem się i umiejętnością rozwiązywania problemów. To powiedziawszy, lubię mówić o sztucznych inteligencjach, w liczbie mnogiej.

Dlaczego?
Ludzka inteligencja nie istnieje jako coś wyjątkowego: istoty ludzkie mają wiele rodzajów inteligencji. Wykładałem również kognitywistykę na Uniwersytecie Stanowym w Mediolanie i prowadzę kurs poświęcony właśnie tym zagadnieniom. Wiemy już, że słowo to może oznaczać różne rzeczy: inteligencję przestrzenną, muzyczną, kinestetyczną, interpersonalną... Można być świetnym kompozytorem, mieć ogromną inteligencję muzyczną, ale być bardzo słabym sportowcem itd. To samo dzieje się w technologii. Nie ma czegoś takiego jak jedna sztuczna inteligencja: istnieje wiele różnych technologii, które, mając tę cechę uczenia się, bycia w stanie w jakiś sposób się dostosować, można zdefiniować jako „inteligencję” zgodnie z najbardziej klasycznymi definicjami.

Ale w tych ludzkich inteligencjach jest jeden czynnik, który w jakiś sposób je łączy...
Łączy je mózg. Który ma unikalne cechy. Sztuczna inteligencja, na przykład, działa dobrze na dużych wolumenach, potrzebuje dużo danych do nauki: ludzie mogą uczyć się nawet przy znacznie mniejszej liczbie przykładów i przypadków. Jednak gdy mówimy o sztucznej inteligencji, istnieje ryzyko, że zbytnio ją antropomorfizujemy. Sztuczna inteligencja nie jest bardziej rozwiniętą ludzką inteligencją: jest inną inteligencją. Może robić rzeczy, które są całkowicie niewyobrażalne dla ludzi, ale nie jest w stanie robić innych rzeczy, które są w zasięgu możliwości dziecka. Sztuczna inteligencja jest wyjątkowa w znajdowaniu korelacji, w zauważaniu, kiedy dwa zjawiska występują razem. Człowiek jest skuteczny w rozumieniu przyczyny i skutku. Jeśli człowiek widzi wschodzące słońce i słyszy pianie koguta, nie ma wątpliwości, co jest przyczyną, a co skutkiem: to kogut pije, ponieważ zobaczył światło. Sztuczna inteligencja tego nie wie. Wie tylko, że te dwie rzeczy są ze sobą powiązane.

Upraszczając: AI może rozpoznawać powiązania w bardziej zaawansowany sposób, ale człowiek ma problem ze znalezieniem znaczenia tych powiązań...
Tak, to prawda. Jest to jedna z głównych różnic do dnia dzisiejszego, ponieważ jasne jest, że to technologia, która rozwija się bardzo szybko. Ale w tej chwili stanowi ona jedną z cech, która również odróżnia te dwie inteligencje pod względem kreatywności. Sztuczna inteligencja jest w stanie generować kreatywne kombinacje: słuchając wielu piosenek Mozarta, może stworzyć nową przyjemną i skuteczną piosenkę w „stylu Mozarta”. Patrząc na wiele obrazów malarza, może wygenerować podobny obraz. Może nawet oszukać ekspertów. Ale nie potrafi stworzyć czegoś naprawdę nowego, rozumianego jako nowy styl, nowy pomysł na biznes. Kreatywność rozumiana jako „tworzenie czegoś, co wcześniej nie istniało” pozostaje głęboko ludzka. Nawet jeśli ten szczególny rodzaj kreatywności związany z generatywną sztuczną inteligencją zaczyna być dziś bardzo skuteczny, ze wszystkimi tego konsekwencjami...

Otwiera to drogę do jednego z najważniejszych pytań: relacji między możliwościami a ryzykiem. Gdzie znaleźć równowagę?
Sztuczna inteligencja daje nam ogromną szansę, ponieważ może pomóc nam sprostać tak wielu wyzwaniom: od opieki zdrowotnej po globalne ocieplenie i wiele innych. Są to niekwestionowane korzyści i należy je wspierać. Ale jasnym jest, że będąc tak potężną, technologia ta musi być dobrze zarządzana. Jest to wyzwanie wszystkich czasów, każdej transformacji: kiedy pojawił się samochód, zniknęła rzesza ludzi, którzy zajmowali się końmi - istniał cały przemysł związany z końmi. Można to powiedzieć o wielu innych sytuacjach. Ta rewolucja jest jeszcze głębsza i dzieje się szybciej: więc z pewnością są problemy, z którymi musimy sobie poradzić jako społeczeństwo. Jednak trzeba sobie z nimi radzić.

Przykłady?
Pomyślmy na przykład o pracy lekarza: nie chodzi o to, że dzięki sztucznej inteligencji zniknie i zajmie się czymś innym, ponieważ lekarze nie będą już potrzebni. Ale lekarz przyszłości, który wykorzystuje sztuczną inteligencję do stawiania diagnoz i pisania raportów lub do pomocy na sali operacyjnej, najprawdopodobniej będzie bardziej skutecznym lekarzem: pomoże nam żyć dłużej i lepiej. A korzystając z tych rzeczy, być może będzie miał więcej czasu na rozmowę z pacjentem lub z jego rodziną. Zawsze będę potrzebował rozmowy z człowiekiem, który wyjaśni mi chorobę, sprawi, że zrozumiem jej konsekwencje i pomoże mi zdecydować, czy poddać się operacji - nie chcę dyskutować o tym z algorytmem. Paradoksalnie więc sztuczna inteligencja może uczynić tę pracę bardziej ludzką, ponieważ może zostawić na to więcej czasu. Oczywiście są też zawody, które mogą zniknąć. Ale większość zawodów nie znika i nie rodzi się: przekształcają się. Do nas, jako społeczeństwa, należy pomoc ludziom w zrozumieniu tej transformacji, a tym samym w przygotowaniu się na nią.

Zatem ci, którzy spodziewają się katastrofy z punktu widzenia zatrudnienia i wpływu społecznego, są w błędzie...
Dla mnie tak. To nie jest temat katastrofy: to temat zarządzania. Oczywiste jest, że nie będzie dla wszystkich miejsc pracy: wielu będzie walczyć. Ale to do społeczeństwa należy pomoc tym ludziom w radzeniu sobie tak dobrze, jak to możliwe. Pomyślmy o rolnictwie. Sztuczna inteligencja może znacznie poprawić produktywność i jakość: dzięki mikrokamerom, czujnikom, dronom i wszystkim innym pomocom można być bardzo precyzyjnym w stosowaniu odpowiedniej ilości pestycydów lub nie marnowaniu wody. Chronisz środowisko i produkujesz więcej. Ale po wyprodukowaniu tej żywności o tym, czy pozostanie ona w rękach nielicznych, czy też trafi do głodujących, nie decyduje sztuczna inteligencja: decyduje o tym polityka, czyli my.

Użył Pan najbardziej fascynującego słowa: „odpowiedzialność”. Jakim wyzwaniem jest nasza odpowiedzialność, mając tak wielkie możliwości na wyciągnięcie ręki?
Od czasu do czasu, kiedy mówię o tych sprawach, używam słynnego zdania ze Spidermana, wie Pan jakiego? „Wielka moc, wielka odpowiedzialność”. Potencjał sztucznej inteligencji nakłada na nas ogromną odpowiedzialność, począwszy od zarządzania ludźmi i pracą, poprzez redystrybucję bogactwa - w sensie upewnienia się, że wszyscy na tym skorzystają - aż po wyzwania etyczne. Na przykład istnieje cała kwestia upewnienia się, że sztuczna inteligencja nie jest szkolona poprzez wprowadzanie uprzedzeń, które następnie zwielokrotniają nierówności. Jeśli algorytm widzi korelację między płcią męską a rolami kierowniczymi, ponieważ historycznie jest więcej mężczyzn na najwyższych stanowiskach kierowniczych, a ja używam go do wyboru menedżerów, to ostatecznie wskazuje mi głównie mężczyzn na określone stanowiska. Nie chodzi o to, że ma uprzedzenia wobec kobiet: chodzi o to, że to znajduje w danych. Do nas należy wejście do algorytmu i skorygowanie uprzedzeń ze względu na płeć, aby uniknąć dyskryminacji.

Wyrażenie „wielka moc, wielka odpowiedzialność” otwiera dwa pytania: standardy i świadomość. Czy mają one taką samą wagę?
Oba są bardzo potrzebne. Potrzebujemy zasad - które również nadchodzą, podobnie jak prawodawstwo europejskie: firmy również o nie proszą, ponieważ nie jest nawet słuszne przerzucanie na firmy pewnych decydujących wyborów dla wszystkich. Potrzeba też dużo edukacji, ponieważ muszę nauczyć się pracować z tą technologią w inteligentny sposób. Ale edukacja to nie tylko szkolenie: to także krytyczne myślenie. Wraz z empatią i umiejętnością współpracy z kreatywnością, o której wspomniałem wcześniej, myślę, że jest to jedna z umiejętności, które będą coraz bardziej potrzebne.

CZYTAJ TAKŻE: Młodość i ideał. Droga do przeznaczenia

Przedstawił Pan trzy prognozy na 2024 rok: rozszerzenie generatywnej sztucznej inteligencji na inne modele, a nie tylko na język; pojawienie się coraz bardziej spersonalizowanych systemów dostosowanych do potrzeb poszczególnych użytkowników; oraz - ogromne - ryzyko głębokich fałszerstw, w roku naznaczonym tak wieloma decydującymi wyborami. Ale gdyby miał Pan wskazać najważniejszą rzecz, którą należy wziąć pod uwagę, aby pogodzić się z ewolucją sztucznej inteligencji, co by to było?
Dla obywateli jeszcze ważniejsze będzie właśnie rozwijanie krytycznego myślenia. To podstawa. Kiedy mówimy o deep fake`ach, mówimy już o technologii, która jest tak skuteczna, że każdy, przy bardzo niewielkim przeszkoleniu, może stworzyć wideo lub audio, w którym wydaje się, że Fabio Moioli powiedział rzeczy, których nigdy nie powiedział... Musimy więc rozwinąć jeszcze bardziej krytyczne myślenie: patrzeć na źródło, kontekst, kwestionować, ale w pozytywnym sensie. Będzie to nawet kluczowe dla przetrwania demokracji. Jest to również przesłanie dla biznesu. Będziemy mieć coraz bardziej rozwinięte modele wykorzystujące sztuczną inteligencję, w których punktem wyjścia będzie nie tylko ludzki język, ale także język chemii, genetyki, materiałów. Oznacza to odkrywanie nowych komponentów, nowych leków...

Oznacza to również większą współpracę między różnymi światami.
Tak, współpraca będzie coraz bardziej decydująca. I to jest kolejne wielkie wyzwanie.