Rozwój etyki sztucznej inteligencji w biznesie

Biznes nierozerwalnie łączy się z rozwojem produktów i usług wykorzystujących sztuczną inteligencję. Jeszcze do niedawna obawy moralne związane ze sztuczną inteligencją były postrzegane jako absurd. Obecnie jednak zapewnienie, aby tego typu produkty i usługi były w pełni etyczne, stało się dużym wyzwaniem. Wynika to z faktu, że proces ich rozwoju bywa nietransparentny, a i same firmy nie zawsze są zainteresowane tematem etyki w zakresie rozwoju sztucznej inteligencji. Liderzy biznesowi mają pilne bieżące problemy, które muszą rozwiązać i nie mają czasu na myślenie o potencjalnych zagrożeniach wynikających z AI. Może jednak warto, choć na chwilę, zatrzymać się i podjąć dyskusję na temat etyki sztucznej inteligencji w biznesie?

Na samym początku należy wskazać, że badania nad rozwojem sztucznej inteligencji są prowadzone równolegle w dwóch głównych ośrodkach. Pierwszym z nich jest środowisko akademickie oraz instytucje naukowe. W tym przypadku wszelkie badania prowadzone są w sposób w pełni transparentny, który można ogólnie określić jako etyczny.

Drugim ośrodkiem są prywatne przedsiębiorstwa. Zarówno badania prowadzone przez małe firmy, jak i przez duże korporacje mogą budzić wątpliwości etyczne ze względu brak poczucia społecznej kontroli. Czy istnieją jednak wytyczne dotyczące tworzenia i rozwoju sztucznej inteligencji w biznesie? Co należy rozumieć poprzez etykę sztucznej inteligencji? Te zagadnienia stanowią główny temat poniższych rozważań.

Etyka w kontekście sztucznej inteligencji

Sztuczna inteligencja to szerokie pojęcie obejmujące technologie, które mogą naśladować inteligentne, ludzkie zachowanie. Wyróżniamy cztery główne kategorie, które stają się coraz szerzej stosowane:

  • Uczenie maszynowe (ML): w skrócie to rozwiązanie pozwalające algorytmom AI samodzielnie się uczyć i ulepszać.
  • Uczenie głębokie (DL): to bardziej złożona forma uczenia maszynowego wykorzystywana np. do rozpoznawania obrazu i mowy.
  • Przetwarzanie języka naturalnego (NLP): to przede wszystkim automatyczna analiza, rozumienie, tłumaczenie oraz generowanie naturalnego języka przez maszyny i aplikacje.
  • Widzenie komputerowe (CV): to z kolei technologia, która wydobywa znaczenie i zamiar z elementów wizualnych, takich jak twarze, obiekty, sceny i czynności.

Ogólnie rzecz ujmując, możemy powiedzieć, że etyka sztucznej inteligencji to sfera badań i działań, która pozwala określić, co jest dobre i co jest złe w zakresie zasad stosowanych w tworzeniu i rozwoju technologii AI. Innymi słowy, etyka definiuje cele i wytyczne dla sztucznej inteligencji przez cały cykl życia produktu, począwszy od badań, poprzez budowę, aż po rzeczywiste działanie technologii z uwzględnieniem wymiaru moralnego. Nie ulega wątpliwości, że etyka sztucznej inteligencji odnosi się w szczególności do dostawców rozwiązań technologicznych, ponieważ to właśnie od nich zaczyna się rozwój AI, a te podmioty mogą wykazywać tendencję do unikania odpowiedzialności za swoje produkty, czy usługi.

Czy istnieje etyczny kodeks sztucznej inteligencji w biznesie?

Niezmiennie od kilku lat, wiele ośrodków badawczych, naukowych, rządowych oraz pozarządowych podejmuje niezależne próby opracowania zasad etycznych dla rozwoju sztucznej inteligencji. Dotychczas największe osiągnięcia w tym zakresie przypadają Unii Europejskiej. Najprawdopodobniej to właśnie wyniki badań Komisji Europejskiej będą stanowiły podstawę do podejmowania dalszych działań w zakresie tworzenia swoistego „kodeksu etyki” dla sztucznej inteligencji w biznesie.

Powołana przez KE Grupa Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji w 2019 roku opublikowała dokument Ethics Guidelines for Trustworthy AI[1], w którym etyka AI została opisana jako zgodność działań rozwojowych, wdrożeniowych i związanych z użytkowaniem sztucznej inteligencji z normami etycznymi. W tytule dokumentu zostało użyte słowo trustworthy, na które warto zwrócić uwagę.

Według naukowców to właśnie trustworthiness, czyli wiarygodność jest podstawowym warunkiem, który powinien towarzyszyć systemom sztucznej inteligencji na etapie opracowywania, wdrażania i korzystania z jej rozwiązań. Systemy AI, które nie są godne zaufania, mogą prowadzić do utrudnień w jej praktycznym zastosowaniu, a tym samym uniemożliwiać realizację potencjalnych korzyści, jakie społeczeństwo i ekonomia mogą czerpać ze sztucznej inteligencji.

Z pracy pięćdziesięciu ekspertów powołanych przez Komisję Europejską można wywnioskować, że wiarygodna sztuczna inteligencja charakteryzuje się:

  1. zgodnością z prawem,
  2. zgodnością z zasadami i wartościami etycznymi,
  3. odpornością, rzetelnością i wytrzymałością w kontekście społecznym i technicznym.

Ostatnia z wymienionych cech została w języku angielskim określona słowem robust, które w języku polskim nie posiada bezpośredniego odpowiednika. Słowo to podkreśla jednak, że produkty i usługi wykorzystujące sztuczną inteligencję powinny być tworzone w taki sposób, aby nie powodować swoim działaniem szkody, nawet w sposób niezamierzony.

Siedem podstawowych wymagań dotyczących sztucznej inteligencji w biznesie

Grupa Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji w dalszej części swojej pracy wskazuje siedem cech, które powinny charakteryzować sztuczną inteligencję, aby mogła zostać określona jako wiarygodna. Oto one:

  1. Przewodnia i nadzorcza rola człowieka jednostki powinny mieć zapewnioną możliwość niezależnego działania i dokonywania wolnych wyborów oraz nadzoru nad działaniem produktów/usług.
  2. Techniczna solidność i bezpieczeństwo odporność na atak i bezpieczeństwo, plan rezerwowy i ogólne bezpieczeństwo, dokładność, wiarygodność i odtwarzalność.
  3. Ochrona prywatności i zarządzanie danymi poszanowanie prywatności, jakość i integralność danych oraz dostęp do danych.
  4. Przejrzystość identyfikowalność, wytłumaczalność i komunikacja.
  5. Różnorodność, niedyskryminacja i sprawiedliwość unikanie niesprawiedliwej stronniczości, dostępność i zasada „projektowanie dla wszystkich” oraz udział zainteresowanych stron.
  6. Dobrostan społeczny i środowiskowy zrównoważony charakter i przyjazne podejście wobec środowiska, skutki społeczne, społeczeństwo i demokracja.
  7. Odpowiedzialność możliwość kontrolowania, minimalizacja i zgłaszanie negatywnych skutków, kompromisy i dochodzenie roszczeń[2].

Powyższy wykaz wymogów kierowany jest w szczególności do organizacji pracujących nad sztuczną inteligencją, w tym do przedsiębiorstw. Rekomendowane jest ustanowienie ram i dobrych praktyk zarządzania, zarówno zewnętrznych, jak i wewnętrznych, które zapewnią odpowiedzialność tych podmiotów za etyczny wymiar podejmowanych decyzji związanych z rozwojem, wdrażaniem i wykorzystywaniem sztucznej inteligencji.

Omawiany dokument klarownie przedstawia, jakie standardy etyczne i techniczne powinny być zapewniane przez przedsiębiorstwa pracujące nad rozwojem sztucznej inteligencji. Zachęcamy wszystkich zainteresowanych tym zagadnieniem do zapoznania się z tym tekstem.

To dopiero początek dyskusji nad rolą etyki w rozwoju AI

Sztuczna inteligencja i robotyka to technologie cyfrowe, które będą miały znaczący wpływ na rozwój ludzkości w najbliższej przyszłości. Wątpliwości etycznych związanych z wykorzystaniem przez człowieka sztucznej inteligencji i systemów robotyki, które mogą być mniej lub bardziej autonomiczne, z każdym rokiem jest więcej. Coraz częściej zaczynamy zastanawiać się, w jakim kierunku należy rozwijać systemy AI, w jaki sposób te technologie powinny działać oraz jakie potencjalne ryzyko wiąże się z ich wykorzystaniem w długoterminowej perspektywie. Dlatego powinniśmy obserwować rozwój sztucznej inteligencji, aby na wstępnym etapie wychwycić potencjalne problemy i być w stanie szybko opracowywać rozwiązania zapobiegające potencjalnym etycznym zagrożeniom.

 

[1] https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

[2] https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai [wersja PL, str. 18]