Masters&Robots

kontrolować sztuczną inteligencję

Cyfrowe Minionki w akcji. Czy i jak powinniśmy kontrolować sztuczną inteligencję?

Rozmawiamy z prof. Markiem Kowalkiewiczem, kierownikiem katedry Gospodarki Cyfrowejna Uniwersytecie Technologicznym w Queensland, autorem bestsellerowej książki „The Economy of Algorithms: AI and the Rise of the Digital Minions”. Prof. Kowalkiewicz będzie gościem konferencji Masters&Robots 2024, gdzie wygłosi wykład pt. “Reshaping Work and Leadership in the Economy of Algorithms”.

 

Digital University: Czym tak naprawdę jest gospodarka algorytmów, która – zgodnie z tym, co pisze Pan w swoich publikacjach  – zmienia i kształtuje nasze życie?

 

Gospodarką algorytmów nazywam nowy paradygmat gospodarczy, w którym algorytmy i systemy sztucznej inteligencji stają się kluczowymi uczestnikami procesów ekonomicznych. Przejmują one coraz więcej zadań tradycyjnie wykonywanych przez ludzi, takich jak podejmowanie decyzji, analiza danych czy interakcje z klientami. To już się dzieje, chociażby na platformach handlowych, gdzie boty sprzedają produkty, chociaż nie wszyscy zdają sobie z tego sprawę. Pamiętam sytuację, gdy dwa boty na Amazonie wzajemnie podnosiły ceny książki do absurdalnych poziomów, ponieważ nikt nie przewidział takiej interakcji między nimi.

Czy to jest przykład sytuacji, w której algorytmy wymykają się naszemu zrozumieniu?

 

Algorytmy wymknęły się naszemu zrozumieniu głównie za sprawą rozwoju zaawansowanych systemów uczenia maszynowego, które są zdolne do samodzielnego uczenia się i ewoluowania. Współczesne algorytmy często tworzą inne algorytmy, co prowadzi do sytuacji, w której ich procesy decyzyjne stają się tak skomplikowane, że nawet ich twórcy nie zawsze mogą w pełni wyjaśnić, dlaczego podjęły one konkretne decyzje. To stawia przed nami wyzwania związane z transparentnością i odpowiedzialnością za działania systemów AI.

Musimy pilnować sztucznej inteligencji?

 

Gdy mówimy o sztucznej inteligencji czy zaawansowanych algorytmach, często myślimy, że są one niezawodne. Jednak rzeczywistość jest bardziej skomplikowana i czasami zabawna. Na przykład, odkurzacze roboty, które mają odkurzać, gdy nas nie ma w domu, często napotykają problemy: wciągają kable od ładowarek, utykają pod meblami albo rozsypują śmieci.

Tak samo jest z wieloma zaawansowanymi technologiami: radzą sobie dobrze w idealnych warunkach, ale nasz świat jest skomplikowany. Czy to odkurzacz, samochód bez kierowcy, czy inny system, w około 80% przypadków działają świetnie, ale w pozostałych 20% może nastąpić katastrofa. Jako ludzie mamy więc tutaj do odegrania ważną rolę w przyszłości – może nie będziemy sami odkurzać domu ani prowadzić samochodu, ale będziemy musieli być gotowi, aby pomagać algorytmom i robotom, gdy te napotkają trudności. To nie jest problem, który zostanie rozwiązany w ciągu najbliższych dwóch czy pięciu lat. Zawsze będzie coś, co wymaga ludzkiej interwencji. W mojej książce „AI and the Rise of the Digital Minions” piszę, że stajemy się jak Gru z filmu – pilnujemy, aby nasze cyfrowe Minionki nie zrobiły totalnego bałaganu.

 

Jak jednak wytyczać granice tej technologii? Kiedy oddawać kontrolę nad naszymi decyzjami algorytmom, a kiedy zachowywać nad nimi pełen nadzór?

 

Nie ma jednoznacznej odpowiedzi, bo wiele zależy od indywidualnych preferencji. Niektórzy z radością oddadzą codzienne zadania, jak robienie zakupów, systemom automatycznym. Inni, bardziej tradycyjni lub świadomi konsumenci, będą woleli podejmować te decyzje samodzielnie. To, jak daleko się posuniemy, zależy także od rodzaju decyzji – od prostych, jak subskrypcja produktów codziennego użytku, po bardziej skomplikowane, jak wybór szkoły dla dzieci. Miejmy nadzieję, że zachowamy możliwość wyboru i nie zostaniemy zmuszeni do całkowitego polegania na algorytmach. Ważne jest, abyśmy mieli kontrolę nad tym, w jakim zakresie technologia wpływa na nasze życie.

 

A jakie widzi Pan potencjalne zagrożenia, wynikające z nadmiernego polegania na algorytmach w codziennym życiu i pracy?

 

Przede wszystkim stajemy w obliczu ryzyka utraty prywatności, gdyż nasze zachowania mogą być stale monitorowane. Algorytmy mogą również manipulować naszymi preferencjami i decyzjami, wpływając na wybory konsumenckie. Obecnie to ludzie decydują o tym, jak używają technologii, ale już teraz widzimy przykłady, gdzie nasze opcje są ograniczone przez decyzje firm. Przykładem mogą być sklepy Amazon Go, gdzie płatności gotówką nie są możliwe, co wynika z polityki firmy, a nie ograniczeń technologii. Podobne sytuacje mogą mieć miejsce w przyszłości, na przykład ze „smart lodówkami,” które mogą zamawiać jedzenie tylko z określonych źródeł. W Europie takie praktyki mogą być ograniczone przez regulacje, ale w innych regionach, jak Stany Zjednoczone czy Australia, ograniczenia mogą być mniej restrykcyjne. To pokazuje, że chociaż AI sama w sobie nie przejmie kontroli, decyzje podejmowane przez firmy technologiczne mogą mieć znaczący wpływ na naszą wolność wyboru.

 

Innym problemem jest możliwość wzmacniania nierówności społecznych przez algorytmy, które mogą prowadzić do dyskryminacji na różnych poziomach. Automatyzacja może również przyczynić się do utraty miejsc pracy. Mimo tych zagrożeń, należy pamiętać, że algorytmy mogą także przynosić wiele pozytywnych efektów.

 

Jakie są najważniejsze z nich?

 

Tak naprawdę technologie cyfrowe i sztuczna inteligencja są jednymi z najlepszych rzeczy, jakie mogły się przydarzyć ludzkości. Dzięki nim możemy wcześniej wykrywać raka, przyspieszać procesy medyczne i zużywać mniej energii w logistyce. Możemy także produkować mniej materiałów, a jednocześnie osiągać lepsze wyniki. Przykładowo, dzisiejsze smartfony, które ważą około 100 gramów, zastępują urządzenia, które 20 lat temu ważyłyby pół tony!

 

To, co jest kluczowe, to zrozumienie zarówno potencjalnych zagrożeń, jak i korzyści płynących z zastosowania tych technologii. Liderzy firm muszą świadomie podejść do tych wyzwań, analizując, jak technologia wpłynie na ich organizacje, kulturę firmową, a także na relacje z klientami. W szczególności powinni zwracać uwagę na etyczne aspekty stosowania algorytmów, takie jak kwestia zaufania do generatywnej sztucznej inteligencji czy wpływ na zatrudnienie i miejsce pracy.

 

To, co obserwujemy, to również rosnąca liczba „algorytmicznych klientów”. Firmy muszą nauczyć się nawigować w relacjach z algorytmami, które coraz częściej podejmują decyzje za ludzi. W jaki sposób skłonić “smart lodówkę” żeby kupiła nasz produkt? Czy ludzie i boty powinni widzieć te same produkty, kiedy robią zakupy online, czy może niektóre produkty powinny być tylko dla ludzi? W związku z tym, rolą liderów jest nie tylko adaptacja do tych zmian, ale także aktywne kształtowanie przyszłości w taki sposób, aby maksymalizować korzyści i minimalizować ryzyko związane z technologiami cyfrowymi.

 

Czego – jako liderzy, ale także jako zwykli użytkownicy technologii – najbardziej potrzebujemy w tym kontekście? Czy kluczowa jest edukacja cyfrowa od najmłodszych lat, czy może potrzebujemy silnych regulacji? A może obydwa te elementy są równie ważne?

 

Regulacje są istotne, ale z natury rzeczy zawsze pojawiają się z opóźnieniem, reagując na pojawiające się problemy, a nie przewidując je proaktywnie. Rządy zwykle reagują na konkretne kryzysy, jak na przykład kwestie związane z korzystaniem przez dzieci z mediów społecznościowych. Dlatego warto, abyśmy nie pokładali zbyt wielkich nadziei w samych regulacjach.

 

Zdecydowanie ważniejszy jest rozwój cyfrowej alfabetyzacji, czyli digital literacy, a także edukacja na temat sztucznej inteligencji (AI literacy). To powinno stać się priorytetem, aby umożliwić ludziom zrozumienie, jak te technologie działają i jak mogą wpływać na nasze życie. Potrzebujemy szeroko zakrojonej edukacji, która obejmie miliardy ludzi na całym świecie, ucząc ich, jak bezpiecznie i świadomie korzystać z nowych technologii.

 

W przypadku generatywnej sztucznej inteligencji, która działa inaczej niż tradycyjne systemy komputerowe, jest to szczególnie istotne. Ludzie muszą zrozumieć, że wyniki, które generują te systemy, nie zawsze są wiarygodne i wymagają weryfikacji. Ważne jest, aby edukować społeczeństwo o możliwości „halucynacji” AI, czyli generowania niekoniecznie prawdziwych informacji, co może mieć poważne konsekwencje.

 

Każdy z nas powinien również krytycznie podchodzić do interakcji z technologiami, zastanawiając się, co dzieje się z naszymi danymi i dlaczego. Kiedy więcej ludzi zacznie zadawać takie pytania, może to wpłynąć na rynek i zmusić firmy do wprowadzania bardziej transparentnych i etycznych rozwiązań. Edukacja i świadomość to kluczowe elementy, które mogą pomóc nam w pełni korzystać z korzyści technologicznych, jednocześnie minimalizując ryzyko. Sztuczna inteligencja to technologia – a nie omnipotenta istota, zdolna do wszystkiego, w tym do przejęcia kontroli nad światem.

 

Czy uważa Pan, że tak dynamiczny rozwój technologii sprawi, że będziemy wybierać interakcje z maszynami, czy też relacje z ludźmi przeważą nad relacjami z algorytmami i sztuczną inteligencją?

 

Jako naukowiec muszę powiedzieć, że jest to skomplikowane. Przykładowo, weterani wojenni cierpiący na PTSD często preferują rozmowy z chatbotami zamiast z ludźmi. Chatboty nie oceniają, nie pamiętają, a jednak pozwalają na wyrażenie swoich emocji. W takich sytuacjach interakcje z maszynami mogą być korzystniejsze dla ludzi, którzy obawiają się osądu.

 

Czy to oznacza, że zawsze będziemy wybierać maszyny? Nie, jednak są przypadki, gdzie kontakt z AI jest preferowany. Obserwuję to także wśród studentów, którzy coraz częściej unikają bezpośrednich interakcji, wybierając zamiast tego komunikację cyfrową. Może to wynikać z braku doświadczenia w nawiązywaniu osobistych relacji lub z wygody.

 

Wciąż jednak wierzę, że ludzie będą dążyć do posiadania bliskich relacji z innymi ludźmi, chociażby w ograniczonym gronie najbliższych przyjaciół. Jednak szersze kręgi społeczne mogą się kurczyć, zwłaszcza gdy technologie coraz bardziej nas odciągają od bezpośrednich kontaktów międzyludzkich. Warto pamiętać, że wiele technologii projektuje się tak, by nas od nich uzależniać. Media społecznościowe i platformy oparte na generatywnej AI, takie jak chatboty, są tworzone z myślą o utrzymaniu naszej uwagi jak najdłużej. Warto mieć tego świadomość – i podejmować świadome decyzje, pozwalające na utrzymanie równowagi w naszym życiu. I tego nam wszystkim życzę.

Leave a Comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *