Sztuczna inteligencja to nie pojedyncza technologia, ale cały ekosystem obejmujący organizacje, sektory i społeczeństwa. Dlatego etyczny rozwój AI wymaga zintegrowanych działań i współpracy. To jednak opłacalny wysiłek, bo stawką w grze jest zaufanie konsumentów.
Międzynarodowe grono ekspertów dyskutowało w Centrum Etyki Technologii Instytutu Humanites, jak skutecznie realizować wytyczne dotyczące godnej zaufania AI. Konferencja „Etyka sztucznej inteligencji: od zasad do praktyki” była pierwszym w Polsce wydarzeniem poświęconym wdrażaniu trustworthy AI.
Etyka AI musi uwzględniać wiele wymiarów oddziaływania technologii na rzeczywistość społeczną, w tym m.in. na rynek pracy. Błędem jest przekonanie, że technologie i ludzie są ze sobą w konflikcie, a automatyzacja ma zastąpić człowieka. Nowe technologie mają za zadanie ułatwić pracę ludziom przez optymalizację procesów, a nie ich zastąpić. Jednak bardzo trudno będzie przekwalifikować tych pracowników, którzy są blisko końca swojej kariery. Należy więc wypracować takie rozwiązania, które nie pominą ich w nowej rzeczywistości – mówiła Beata Staszków, prezes Zarządu Związku Pracodawców Polska Miedź, partnera konferencji.
Jak przekonywała Zofia Dzik, prezes Instytutu Humanites i przewodnicząca Rady Programowej CET, najbardziej pilącą potrzebą jest dziś wypracowanie mechanizmów odpowiedzialnego używania AI, podobnie jak sto lat temu rozwój motoryzacji wymusił na nas stworzenie zasad ruchu drogowego. Podkreśliła jednocześnie, że ambicją CET jako think&do tanku jest aktywne działanie na rzecz realizacji wymogów trustworthy AI w praktyce.
Kwestia etyki jest dziś kluczowa dla rozwoju sztucznej inteligencji i to od niej zależy, czy za kilka dekad przeniesiemy się w świetlaną przyszłość, czy raczej cofniemy do 1984 roku – przekonywał Antoni Rytel, wicedyrektor Centrum GovTech. – Rozwój AI, dotychczas kojarzonej z inżynierią i naukami ścisłymi, wymaga dziś wsparcia ze strony humanistyki. Dotyczy to zarówno tworzenia systemów sztucznej inteligencji, jak i edukacji nowych pokoleń. Inicjatywy podejmowane przez CET są tu bardzo pożądane – dodawał.
Jako keynote speaker na konferencji wystąpił prof. Bernd Carsten Stahl – dyrektor Centre for Computing and Social Responsibility na Uniwersytecie De Montfort, koordynator unijnego projektu SHERPA oraz dyrektor ds. etyki we flagowym projekcie UE Human Brain Project. Omówił różne rodzaje systemów sztucznej inteligencji i związane z nimi odrębne wyzwania etyczne. Przekonywał, że nie powinniśmy traktować AI jako jednorodnej technologii, ale raczej jako złożony i stale ewoluujący ekosystem, który wchodzi w różne interakcje ze społeczeństwem oraz z innymi technologiami. Takie rozumienie AI jest – jego zdaniem – bardziej praktyczne, ponieważ pozwala lepiej orientować się w istniejących problemach oraz narzędziach do ich rozwiązywania pochodzących z różnych obszarów – technicznych, etycznych, regulacyjnych czy organizacyjnych.
Prof. Stahl przedstawił też metodę Ethics by Design wypracowaną w projektach SHERPA i SIENNA, która umożliwia zmapowanie wymogów etycznej AI z konkretnymi etapami procesu projektowania i wdrażania technologii. Jak podkreślił, stosowanie tego podejścia będzie wymagane od grantobiorców w unijnym programie Horyzont Europa.
Organizacje takie jak CET mogą odegrać ważną rolę w rozwoju trustworthy AI. W przypadku etyki sztucznej inteligencji nie mamy bowiem czasu na powolne budowanie branżowego etosu, jak miało to miejsce z zawodami lekarza czy prawnika. Dziś potrzebne są solidne ramy organizacyjne, aby sprawnie wypracować skuteczne mechanizmy realizacji etyki AI w różnych sektorach – zwracał uwagę dr Robert Sroka z Abris Capital Partners.
Zaznaczył, że unijny projekt prawa sztucznej inteligencji zachęca firmy i organizacje branżowe, by tworzyły kodeksy postępowania dotyczące systemów AI nieobarczonych wysokim ryzkiem. Wypracowanie nad Wisłą skutecznego mechanizmu działania w tym obszarze może być ważnym wkładem naszego kraju w rozwój etyki AI w Europie.
O tym, że skuteczne działania polskich organizacji branżowych są w tym obszarze możliwe, świadczy świeżo opublikowany przez Izbę Gospodarki Elektronicznej „Kodeks etyki e-commerce”. Podczas konferencji analizował go Paweł Oksanowicz – szef Grupy Merytorycznej Zrównoważony Biznes i CSR w e-Izbie. Z kolei na problem z przekładaniem ogólnych zasad godnej zaufania AI na praktykę zwrócili uwagę dr Michał Nowakowski i Mateusz Chrobok z firmy Ceforai. Przypomnieli, że rzeczywistość nie jest zero-jedynkowa i pomysł na rozwiązywanie problemów etyki AI przez ich algorytmizację jest skazany na niepowodzenie. Należy raczej myśleć o odpowiednim włączaniu etyki do procesu rozwoju oprogramowania.
Bardzo ważne jest przy tym traktowanie zagadnień etycznych związanych z AI jako wyzwań dotyczących całych organizacji, a nie wyłącznie programistów. Kluczowe znaczenie ma tu odpowiednia komunikacja oraz umiejętność uzgadniania priorytetów biznesowych z wymogami etycznymi oraz właściwe przełożenie ich na decyzje programistyczne – zgodnie twierdzili.
O tym, że w przyszłości będziemy konkurować o zaufanie i wartości, przekonywała z kolei dr Anna Topol, Chief Technology Officer w IBM Research, przywołując słowa dyrektora generalnego IBM Arvinda Krishny. W jej ocenie pozyskanie zaufania do sztucznej inteligencji to złożone wyzwanie społeczno-technologiczne. Etyka musi być zawarta w procesach projektowania i wytwarzania AI od samego początku, a wypracowane rozwiązania powinny być skalowalne. Bardzo ważna jest też zintegrowana strategia etyki AI obejmującą całą organizację. W IBM utworzono Radę ds. Etyki i opracowano program edukacyjny dla wszystkich pracowników. Uruchomiono także program badawczy do prac nad odpowiedzialnym rozwojem AI zgodnie z wartościami przyjętymi przez firmę.
Wedle przeprowadzonego w 2020 r. badania aż 81 procent ankietowanych konsumentów stwierdziło, że ich niepokój wobec sposobu, w jaki używa się ich danych, wzrósł w ciągu ostatniego roku. To duże wyzwanie dla firm chcących rozwijać nowe technologie – mówiła dr Topol.
W podsumowaniu konferencji Maciej Chojnowski, dyrektor programowy CET, zwracał uwagę na potrzebę uzgodnienia etyki sztucznej inteligencji z innymi działaniami organizacji rozwijających tę technologię. Wdrożenie odpowiedzialnej AI wymaga całościowego spojrzenia.
CET promując systemowe podejście do etyki AI, może nawiązywać do dorobku Instytutu Humanites, którego jest częścią. To bowiem tutaj od ponad 10 lat rozwijana jest koncepcja zintegrowanego przywództwa – mówił.
Konferencja „Etyka sztucznej inteligencji: od zasad do praktyki” odbyła się pod honorowym patronatem Centrum GovTech. Partnerem wydarzenia był Związek Pracodawców Polska Miedź, a patronem medialnym było „Forum Akademickie”.
MK