Maciej Chojnacki - Sztuczna inteligencja problemy

Maciej Chojnowski: Trzeba obawiać się tego, co człowiek może zrobić ze sztuczną inteligencją

Agencja Informacyjna | Maciej Chojnowski: Trzeba obawiać się tego, co człowiek może zrobić ze sztuczną inteligencją, a nie tego, co sztuczna inteligencja sama z siebie jako jakiś byt autonomiczny może zrobić z nami.

Maciej Chojnowski to współtwórca i Dyrektor programowy Centrum Etyki Technologii Instytutu Humanites, Członek grupy roboczej ds. AI w KPRM.

creative depiction of ChatGPT communicating with a human, featuring an attractive woman. The image showcases a futuristic setting where the woman is

Maciej Chojnowski: nie ma miejsca na właśnie jakąś inwazję maszyn

Rozmowa podczas III Kongresu ESG „Liderzy Zrównoważonego Rozwoju – Europa”

Jakie są największe zagrożenia w związku z wprowadzeniem sztucznej inteligencji (AI) do naszego życia?

Maciej Chojnowski: Myślę, że są realne zagrożenia. One jak najbardziej istnieją, natomiast bardzo często są przedstawiane w taki sposób, który odbiega od diagnoz stawianych przez ekspertów. Najczęściej myślimy o jakiejś zagładzie, którą przyniosą nam terminatory czy czy czy sztuczna inteligencja, która zdobędzie władzę nad światem. Mamy tego typu skojarzenia, które zwykle wywoływane są przez filmy science fiction. Często też grupy filozofów, czy też specjalistów, którzy zajmują się futurologią konstruują takie scenariusze, które bywają dość spektakularne.

Natomiast ludzie, na co dzień zajmujący się etyką sztucznej inteligencji, są zdecydowanie bardziej przyziemnymi w swoich diagnozach. Myślę, że tutaj nie ma miejsca na właśnie jakąś inwazję maszyn czy na to, że raptem sztuczna inteligencja zdobędzie jakąś samodzielność i zdominuje ludzi. To są scenariusze znacznie rzadziej, podzielane przez większość etyków. Natomiast diagnozowane są problemy społeczne, polityczne typu, na przykład dezinformacja, do której sztuczna inteligencja może się przyczynić. I to też, kiedy mówię, „może się przyczynić” nie chodzi o to, że ona sama będzie dezinformować, tylko może zostać po prostu wykorzystana przez człowieka.

Podobnie na przykład kwestie inwigilacji na masową skalę, kwestie deepfake, kwestia wykorzystania sztucznej inteligencji na przykład do rozpoznawania twarzy i podobne systemy jak system scoringu społecznego w Chinach, który jest tam rozwijany. To są wszystko rzeczy, gdzie technologia może zostać użyta w sposób niewłaściwy, przynajmniej jeśli chodzi o nasze wartości. Natomiast za każdym z tych użyć stoi człowiek, w związku z czym powiedziałbym tak, trzeba obawiać się tego, co człowiek może zrobić ze sztuczną inteligencją, a nie tego, co sztuczna inteligencja sama z siebie jako jakiś byt autonomiczny może zrobić z nami. Przede wszystkim to trzeba mieć przekonanie, że ona ( sztuczna inteligencja sama w sobie – przyp. red.) nie jest zagrożeniem.

Jak przekonać pracowników, że sztuczna inteligencja (AI) nie jest zagrożeniem dla ich miejsc pracy?

Maciej Chojnowski: Może być zagrożeniem i tutaj trzeba właściwy sposób rozpoznać sytuację i uczciwie ją przedstawić ludziom. Jeśli faktycznie sztuczna inteligencja nie będzie zagrożeniem, to trzeba pokazać ludziom, że ich miejsca pracy nie zostaną zlikwidowane. Umiejętne użytkowanie sztucznej inteligencji wymaga dostosowania z rozszerzenia swoich kompetencji czy zmiany w ogóle profilu pracowniczego. Natomiast myślę, że tutaj bardzo ważne jest w ogóle uczciwe rozpoznanie sytuacji przez przez pracodawcę, przez biznes.

Biznes często traktuje nowinki techniczne jako coś, co warto przyjąć dlatego, że po prostu tak jest w branży tak jest na rynku. Te trendy oczywiście ciężko ignorować. Niemniej wydaje mi się, że kluczową sprawą w przypadku implementacji technologii jest świadome wykorzystanie. Wiedza po co mielibyśmy tego używać? W związku z czym myślę, że to są takie naczynia połączone. Jeśli biznes, jeśli zarząd wie, czemu ma służyć wykorzystanie AI (sztucznej inteligencji) w danej organizacji, to będzie też w stanie to sensownie przetłumaczyć pracownikom.

Jakie są etyczne zagrożenia ze strony sztucznej inteligencji (AI)?


Maciej Chojnowski: Tych zagrożeń jest sporo. Można mówić o problemach wynikających z ze specyfiki, na przykład uczenia maszynowego. To jest problem chociażby z transparentnością tego, co się dzieje, szczególnie w tak zwanych czarnych skrzynkach. Czyli chodzi o systemy uczenia głębokiego, które są nietransparentne, często również dla własnych twórców. W związku z czym mówi się w tym kontekście o narzędziach z obszaru Explainable Artificial Intelligence czyli wyjaśnialnej sztucznej inteligencji. Żebyśmy mieli jakiś wgląd w to, jak te systemy działają, dzięki czemu możemy ocenić, czy decyzje czy rekomendacje podejmowane przez taki system są zgodne z naszymi wartościami czy kryteriami, które są dla nas istotne.

To powiedzmy jeden obszar, ale mamy też wspomniane wcześniej kwestie, na przykład oddziaływania społecznego, politycznego. Wpływu ekonomicznego – tu bardzo prosto kwestia wpływu na na na rynek pracy chociażby. W przypadku politycznym to jest kwestia decyzyjności. Znaczy, jeśli scedujemy zbyt wielką odpowiedzialność na systemy sztucznej inteligencji, wówczas mamy pewien problem w ogóle z podmiotowością także w wymiarze politycznym.

Pierwszy spot reklamowy stworzony w całości przez sztuczną inteligencję: Adamed Pharma przedstawia reklamę Maxon Forte.

Jeśli chodzi o kwestie społeczne to możemy mówić chociażby właśnie o inwigilacji, czy manipulowaniu powiedzmy opinią publiczną. Tych obszarów jest wiele i myślę, że te problemy, które wspomniałem, to są problemy znacznie bardziej realne niż na przykład zagrożenie ze strony zbuntowanych maszyn.

Tu jeszcze dochodzi problem prawny. Mamy pojazdy autonomiczne, które w pełni autonomiczne jeszcze nie są. Natomiast kto miałby odpowiadać na przykład za wypadek spowodowany przez autonomiczną maszynę? Zwykle odpowiada za to człowiek, który ma być nadzorcą takiego pojazdu. To jest problematyczne.

Rozmowa z Maciejem Chojnowskim odbyła się w trakcie III Kongresu ESG w Warszawie, który odbył się 31 stycznia 2024 r. Pytania zadawał red. nacz. portalu raportcsr.pl Tomasz Dereszyński.

Kim jest Marek Chojnowski?

Marek Chojnowski to współtwórca Centrum Etyki Technologii Instytutu Humanites. Członek Grupy Roboczej ds. AI w KPRM. Orędownik odpowiedzialnych innowacji. Z zawodu dziennikarz. Był redaktorem pierwszego polskiego niekomercyjnego portalu poświęconego AI – sztucznainteligencja.org.pl. 

Autor wielu artykułów na temat etyki sztucznej inteligencji i technologii cyfrowych. Przeprowadził kilkadziesiąt wywiadów z krajowymi i zagranicznymi ekspertami w dziedzinie inżynierii IT, filozofii technologii i prawa. 

Zajmował się komunikacją w obszarze nauki i ICT oraz otwartym dostępem do danych i wyników badań naukowych. Pracował w ICM UW oraz OPI PIB. Współorganizator cyklu hackathonów Wielkie Wyzwania Programistyczne oraz konferencji Supercomputing Frontiers Europe 2018. Zwolennik współpracy inżynierów i humanistów. Ukończył filologię polską na UW. W przeszłości wykładowca i nauczyciel.

Rozmowa z Markiem Chojnowski (zapis wideo)

Rozmowa z Maciejem Chojnowskim odbyła się w trakcie III Kongresu ESG w Warszawie, który odbył się 31 stycznia 2024 r. Pytania zadawał red. nacz. portalu raportcsr.pl Tomasz Dereszyński.

IV Kongres ESG – Liderzy Zrównoważonego Rozwoju – Europa – już 29 stycznia 2025 r.

III Kongres ESG „Liderzy zrównoważonego rozwoju – Europa” 2024

III Kongres ESG „Liderzy zrównoważonego rozwoju – Europa” pokazał, że autentyczne zaangażowanie w zrównoważony rozwój i integracja zasad ESG w codzienne działania firm są kluczowe dla budowania lepszego jutra. Inkluzywność, współpraca między firmami i odpowiedzialne zarządzanie łańcuchem dostaw to filary, na których powinien opierać się każdy model biznesowy zainteresowany zrównoważonym rozwojem.

Patronat honorowy nad III Kongresem ESG – Liderzy Zrównoważonego Rozwoju – Europa objęli: Rzecznik Praw Obywatelskich, Minister Nauki, Minister Rolnictwa i Rozwoju Wsi, Minister Klimatu i Środowiska, Ministerstwo Rozwoju i Technologii, Ministra Rodziny, Pracy i Polityki Społecznej, Przedstawicielstwo Komisji Europejskiej w Polsce, JM Rektor Szkoły Głównej Handlowej w Warszawie, JM Rektor Uniwersytetu Warszawskiego.

Patronat objęli: Polska Agencja Rozwoju Przedsiębiorczości, Polska Agencja Nadzoru Audytowego, Polska Agencja Inwestycji i Handlu oraz Politechnika Warszawska.

Partnerem Strategicznym jest: ORLEN.

Partnerami Głównymi są: Adamed Pharma, Alior Bank, AMS, Diaverum, Hasco-Lek S.A., Lidl Polska, PGE Polska Grupa Energetyczna, Grupa Żabka.

Partnerami są: Bank Gospodarstwa Krajowego, Francusko-Polska Izba Gospodarcza (CCIFP), PZU, Huawei Polska, DS Smith. 

Beata Dziekanowska, Ferrero: Zrównoważony rozwój to jest szacunek dla innych

Partnerami wspierającymi są: Polska Grupa Porcelanowa, PwC, Grupa Ferrero, Tarczyński, IAR Technologies oraz COGIT, Dobra Fundacja, Bio Planet, LONGI Solar oraz Krajowy Ośrodek Wsparcia Rolnictwa.

Partnerami merytorycznymi są: Fundacja Polskiego Godła Promocyjnego „Teraz Polska”, Krajowa Izba Gospodarcza, Szkoła ESG, PRME – Polish Chapter Priciples for Responsible Management, Instytut Staszica, Instytut Biznesu, Centrum UNEP/GRID-Warszawa, Unsung Heroes, Fundacja Polski Instytut Rozwoju Rodziny, Our Future Foundation, Centrum Etyki Technologii Instytutu Humanites, Warsaw Enterprise Institute, Polityka Insight, Fundacja Instytut Studiów Wschodnich – organizator Forum Ekonomicznego, Związek Pracodawców Klastry Polskie, Olimpiady Specjalne Polska. 

Partnerami badawczymi są: PSMM Monitoring & More oraz Ogólnopolski Panel Badawczy Ariadna.

Partnerami medialnymi są: Dziennik Gazeta Prawna, Wyborcza.biz, Polska Agencja Prasowa, Super Biznes, Gazeta Polska, Raport ESG, RaportCSR.pl, oESG.pl, PracodawcaGodnyZaufania.pl, Agencja Informacyjna, Obserwator Gospodarczy, ngo.pl, Świat OZE.

Więcej informacji na stronie: www.esgkongres.pl i https://oesg.pl/3-kongres-esg/

Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Zapraszamy do lektury innych publikacji o tematyce ESG, które znajdziesz tutaj. Agencja Informacyjna.

AI Wywiady, ESG /AIN/ 14.03.2024.

Fot. główna – CET