
Sztuczna inteligencja – szanse i zagrożenia

Papież Franciszek podczas watykańskiej konferencji „Dobry algorytm? Sztuczna inteligencja: etyka, prawo, zdrowie” powiedział: “Oni wiedzą o nas wszystko, my o nich nic, to niebezpieczne”. Te mocne słowa odnosiły się do nowych technologii informatycznych i firm jakie za nimi stoją, zbierające dane o każdym z nas, same kryjąc sie za fasadą anonimowości.
Konferencja w Watykanie poświęcona sztucznej inteligencji zwołana została na prośbę papieża. Formalnie zainicjowała ją Papieska Akademia Życia. Rozpoczęła się ona w Środę Popielcową 26 lutego i trwała do 28 lutego 2020. Wzięli w niej udział szefowie czołowych firm komputerowych, takich jak IBM czy Microsoft, przedstawiciele Watykanu, specjaliści z zakresu etyki, a także reprezentanci świata polityki, w tym przewodniczący Parlamentu Europejskiego i dyrektor FAO. W ostatnim dniu konferencji podpisany został przez papieża Franciszka, prezes Microsoft – Brada Smitha, wiceprezes IBM – John Kelly”ego, przewodniczący Parlamentu Europejskiego – Davida Sassola oraz dyrektor FAO – Donqyu Qu dokument, który jest apelem o stworzenie kodeksu etycznego dla sztucznej inteligencji.
W swoim przemówieniu papież Franciszek zwracał uwagę, iż “w stosowaniu nowoczesnych technik cyfrowych trzeba się kierować zasadami etycznymi.” Franciszek przyznaje, że “zmiany wywołane przez rozwój techniki cyfrowej mają charakter epokowy. Nasze decyzje, również te najważniejsze, są dziś owocem ludzkiej woli oraz kalkulacji wynikających z różnych algorytmów. Dlatego coraz trudniej jest zrozumieć ich przedmiot, przewidzieć skutki i określić odpowiedzialność. W epoce cyfrowej zmienia się postrzeganie przestrzeni, czasu i ciała. Stajemy wobec perspektyw nieograniczonego rozwoju, a zarazem mamy do czynienia z postępującym ujednolicaniem. Coraz trudniej jest zachować różnorodność.
Na polu społeczno-gospodarczym człowiek coraz częściej jest sprowadzany do roli konsumenta, podporządkowanego interesom skoncentrowanym w ręku nielicznych. Na podstawie śladów, które pozostawia po sobie w internecie, algorytmy gromadzą dane, które pozwalają kontrolować jego nawyki dla celów komercyjnych czy politycznych, często bez jego wiedzy. Mamy tu do czynienia z asymetrią, bo nieliczni wiedzą o nas wszystko, a my o nich niczego.Może to stanowić zagrożenie dla społeczeństw demokratycznych…
Poważne wyzwania wiążą się również ze stosowaniem sztucznej inteligencji w naukach biologicznych. Dziś nie wystarczy już jedynie szkolenie do właściwego korzystania z nowych technik. Nie są to bowiem narzędzia neutralne. Nie można też zdać się na wrażliwość moralną tych, którzy projektują nowe urządzenia i algorytmy. Potrzebujemy instancji, które zapewnią, że uwzględniona zostanie wrażliwość etyczna użytkowników i wychowawców.”
Sztuczna inteligencja w coraz większym stopniu wpływa na życie każdego z nas. Innowacyjna technologia oprócz wielu korzyści przynosi również nowe problemy, które będziemy musieli rozwiązać. Jeden z nich może się np. wiązać z samochodami bezzałogowymi. Kto będzie odpowiedzialny, jeśli dojdzie do wypadku takiego pojazdu? I jeszcze trudniejsze pytanie: jaką „decyzję podejmie pojazd”, gdy będzie musiał wybrać między ochroną życia pasażerów a pieszych?
Sztuczna inteligencja to ułatwienie życia i szansa na rozwiązanie wielu problemów, w tym zdrowotnych, skoro naukowcy wykorzystują algorytmy do lepszej diagnostyki i opracowania skuteczniejszego leczenia chorób. Wielkie nadzieje i możliwości wiążą się jednak z zagrożeniami i obawą, o to, że jeśli postęp techniczny nie będzie szedł w parze z postępem moralnym, to może dojść do niebezpiecznych sytuacji.
W styczniu tego roku rząd norweski przedstawił narodową strategię dotyczącą sztucznej inteligencji z ambicją, aby Norwegia stała się liderem w tej dziedzinie. Komisja Europejska twierdzi, że w latach 2018-2020 zainwestuje 1,5 miliardów euro w rozwój sztucznej inteligencji. 11 lutego 2019 prezydent Donald Trump podpisał rozporządzenie wykonawcze uruchamiające program American AI Initiative, dzięki któremu USA ma pozostać światowym liderem w rozwoju sztucznej inteligencji. W Polsce w roku 2015 powstało Ministerstwo Cyfryzacji, które wspiera wiele działań związanych ze sztuczną inteligencją. Oprócz tego zainicjowany został projekt Polityki Rozwoju Sztucznej Inteligencji (AI) w Polsce na lata 2019-2027.
Bohaterem innowacyjnego rozwoju powinien być człowiek, a nie maszyna
Przewodniczący Papieskiej Akademii Życia abp Vincenzo Paglia, po konferencji mówił: “Widzimy, że świat, w którym żyjemy przechodzi poważne i szybkie zmiany. Jednym z czynników jest rozwój nowych technologii i nowych sposobów ich wykorzystania. Po raz pierwszy w historii możemy ingerować, manipulować i przekształcać człowieka oraz społeczeństwo w zupełnie nowy, inny sposób niż miało to miejsce wcześniej. Ma to zarówno pozytywne, jak i negatywne strony. Pozytywne aspekty to możliwość leczenia i uzdrawiania dzięki nowej technologii, postęp w medycynie i w badaniach. Negatywna strona to zdolność do zmiany człowieka, na przykład poprzez modyfikację genetyczną. Dlatego niezwykle ważne jest, abyśmy budowali świadomość na temat różnych aspektów tego rodzaju technologii, tak aby człowiek zawsze stał w centrum i abyśmy zachowali ludzką solidarność, wolność i wartość. Musimy zawsze o tym pamiętać i uczyć się na podstawie wielu przerażających wydarzeń w historii świata, aby teraz stworzyć przyszłość, w której nie powtórzymy tych samych błędów… Rolą Kościoła jest być pielgrzymem, który idzie obok technologii, i który może pomóc światu w budowaniu wspólnej perspektywy, w której dbamy o całą naszą rodzinę i wspólne dobro. Ważne jest, abyśmy rozumieli, co się dzieje i dbali, aby to człowiek był bohaterem innowacyjnego rozwoju, a nie maszyna. Dlatego chcieliśmy zorganizować to seminarium, aby ludzie z różnych środowisk i ośrodków akademickich mogli się spotkać i rozpocząć tę rozmowę. Jest to niezwykle ważne dla kierunku, w którym zmierza świat.
Zainicjowaliśmy debatę, w której skupiliśmy się na trzech aspektach:
1. Perspektywa etyczna, która zapewni, że nie zostaną opracowane takie algorytmy, które zastąpią lub usuną człowieka.
2. Prywatność i dzielenie się wiedzą. Wszyscy słyszeliśmy o kapitalizmie inwigilacji. To zagadnienie obejmuje prywatność i udostępnianie danych osobowych. Kto wie, co o nas wiedzą i do czego wykorzystywane są nasze dane osobowe? To są pytania, które pojawiają się w tym kontekście.
3. Aspekt prawny. Konieczne jest zdefiniowanie zasad prawnych, aby zapewnić, że punkty pierwszy i drugi będą zgodne z rozwojem regulowanym tymi samymi zasadami dla wszystkich.
Technologia koncentruje się na nowych możliwościach, które mogą pomóc człowiekowi, ale ma także strony, które mogą sprzyjać nadużyciom. Problemy te są dobrze znane firmie Microsoft, dlatego ważne jest, abyśmy zainicjowali rozmowy na ich temat.
Profesor Felix Hector Rigoli z uniwersytetu Sao Paulo w Brazylii zwrócił uwagę na zagrożenia związane z algorytmami, które mogą prowadzić do dyskryminacji i nierówności. Wypowiedział również zdanie, która zmusza do głębszej refleksji: „Jeśli pozwolimy algorytmom uczyć się od ludzi, podejmą nieetyczne decyzje”. Z kolei profesor etyki Sandra Alexander z Dubaju zwróciła uwagę na konieczność kontynuowania badań z zakresu etyki, które są niezbędne przy tak szybkim rozwoju techniki. Odnosząc się do papieskiej encykliki “Laudato si” powiedziała, że “technologia rozwija się w tempie przewyższającym naszą możliwość zrozumienia jej faktycznego wpływu na nasze życie.” Inny uczestnik konferencji – profesor Alexander Filipovic z jezuickiej uczelni z Monachium, zapytany o wpływ sztucznej inteligencji wskazał cztery wymiary: ” Po pierwsze: sztuczna inteligencja zmienia świat, ponieważ stajemy się bardziej nacjonalistyczni z powodu dążenia do bycia wiodącym narodem w tej dziedzinie. Przykładem jest tutaj dynamika między Chinami a Stanami Zjednoczonymi. Kilka innych krajów również wskoczyło do tego pociągu. Po drugie: demokracji przyszłości zagraża komunikacja sfunkcjonalizowana. Po trzecie: zdobywanie i odkrywanie nowej wiedzy za pomocą sztucznej inteligencji. W kilku przykładach widzieliśmy jak SI można wykorzystać w badaniach, aby uzyskać głębszy wgląd w to, na przykład, jak przebiega choroba. Po czwarte: zmiany na rynku pracy, na którym coraz więcej miejsc pracy zostanie zastąpionych maszynami. Myślę, że wielu ludzi będzie brakowało odpowiedniej wiedzy, aby wygrać konkurencję z maszynami SI. Tym osobom trudno będzie znaleźć pracę. Przekwalifikowanie i dalsza edukacja są ważnymi kwestiami w tym wymiarze”.
W wywiadzie dla Radia Watykańskiego ks. prof. Benanti przytoczył znamienny przykłąd z jakim musimy się zmierzyć: „Weźmy konkretny przykład. Już w latach ‘70 zrodziła się dyskusja, jak powinien zachowywać się bezzałogowy pociąg, który przewozi ludzi po lotnisku. I wtedy wszyscy doszliśmy do zgody, że gdyby pociąg znalazł się w sytuacji, że musiałby wyrządzić krzywdę jednej albo trzem osobom, to by minimalizować straty, lepiej jest by poszkodowana została jedna osoba niż trzy. Dziś mamy autonomiczne samochody, które kosztują mnóstwo pieniędzy. Ale powstaje pytanie, czy można budować samochody, które w pierwszym rzędzie chronią właściciela samochodu, bo za to zapłacił, kosztem życia trzech nieznanych przechodniów? Okazuje się, że to co, było przedtem oczywiste, dziś bywa już kwestionowane. Etyka w odniesieniu do sztucznej inteligencji oznacza, że trzeba ustalić reguły, dzięki którym automatyzacja będzie zgodna z całą złożonością naszego społeczeństwa.“

