Przejdź do treści głównej
Forum europejskiej inicjatywy obywatelskiej

Europejczycy na rzecz bezpiecznych połączeń wzywają do ściślejszego uregulowania kwestii sztucznej inteligencji w procesie decyzyjnym

Data aktualizacji: 24/01/2023

Europejczycy na rzecz bezpiecznych połączeń to koalicja krajowych i międzynarodowych organizacji, które są świadome negatywnych skutków nowoczesnych technologii komunikacyjnych. Podkreślamy, że nie sprzeciwiamy się technologii, lecz opowiadamy się za bezpieczną technologią i bezpiecznymi połączeniami.

W ciągu roku naszej kampanii wyciągnęliśmy wnioski, które mogą być przydatne dla przyszłych organizatorów. Po pierwsze, jeśli słyszesz o tym prawdziwym głosie w swoim sercu, aby zmienić świat na lepsze dla wszystkich: śledź ten głos, walczyć i nigdy nie rezygnować z nadziei!

jeśli przejdziesz z przepływem, ludzie z łatwością udają się do Ciebie i nie twój oporu. Jeśli jednak trzeba się temu sprzeciwić, Twój komunikat może być potrzebny, jak np. cielesna gleba odstraszająca wodę potrzebuje miękkiego, trwałego deszczu. Chociaż UE potrzebuje miliona podpisów, liczy się jakość Twoich pomysłów.

W ramach europejskiej inicjatywy obywatelskiej (EIO) „Stop (((5G))) – Stay Connected but Protected” mamy 23 propozycje. Wzywamy m.in. do lepszego stanowienia prawa w zakresie prywatności danych i automatycznego podejmowania decyzji przez sztuczną inteligencję. Proponujemy rozpoczęcie oceny skutków wpływu sieci 5G na ochronę danych osobowych (wniosek 19), pragniemy aktywnej walki z dyskryminacją i naruszeniami praw cyfrowych (wniosek 21) i uważamy, że obywatele powinni być informowani, czy ich dane są przetwarzane w sposób zautomatyzowany (wniosek 22).

Stop 5G - Logo

Jak wszystko się zaczęło?

Sztuczna inteligencja (AI) trwa od dłuższego czasu. Już na początku 50 lat oczekiwania były wysokie, jeśli chodzi o nieskończone możliwości, jakie inteligentna technologia przyniesie naszemu społeczeństwu. Obecnie ponad pół wieku później technologia sztucznej inteligencji zdołała powoli rosnąć w naszym codziennym życiu. Chociaż roboty humanoidalne nie poruszają się jeszcze na całym świecie, w zarządzaniu infrastrukturą, procesach pracy i wolnym czasie wykorzystujemy wiele złożonych technologii.

Obecne „inteligentne” technologie mogą różnić się od tego, co wcześniej naukowcy nazywaliby inteligentnymi maszynami podobnymi do człowieka. Mając na uwadze, że Alan Turing zdefiniował wywiad jako myślenie i działanie jak ludzie, obecnie inteligentne systemy próżniają nasz dom z ograniczoną refleksją. Określenie, czym dokładnie jest sztuczna inteligencja i co się z nią wiąże, jest trudne. Niemniej jednak umożliwiło nam życie w sposób bardziej efektywny, sprawniejszy i być może jeszcze bardziej przyjemny.

Jednak wady niekończącej się automatyzacji i robotyzacji również stają się coraz bardziej widoczne. Wzięcie pod uwagę na przykład kobiety będące kandydatami Amazona: odrzucono, ponieważ algorytm nauczył się faworyzować mężczyznę wobec kobiet. Czy też chatbot Tay Microsoft na Twitterze, który musiał zostać usunięty, ponieważ wywnioskował od kolegów tweeterów skrajnie rasistowskie „prawdy”. Lub fakt, że w wyszukiwanym terminie „CEO” w Google pojawiają się głównie zdjęcia mężczyzn.

Możemy sądzić, że sztuczna inteligencja wydaje się eliminować najgorszą liczbę mężczyzn i pogłębiać istniejące nierówności. Może to jednak być nieco uproszczone, aby dojść do wniosku. Systemy sztucznej inteligencji i leżące u ich podstaw algorytmy często opierają się na danych, wielu danych, aby dowiedzieć się o naszym świecie. Techniki uczenia maszynowego, takie jak sieci neuronowe i drzewa decyzyjne, próbują wywieść tendencje, powiązania między pojęciami oraz ważne parametry, które pomogą im wybrać właściwe opcje w przyszłych wnioskach. Dane te nie były tworzone z myślą o uczeniu się maszyn. Nie, większość danych została wygenerowana przez nas, ludzi, klikając na internet i dzieląc się naszymi preferencjami. Wykorzystując nasze dane do uczenia się, systemy sztucznej inteligencji niszczą tym samym systematyczne uprzedzenia, które już w pewnym stopniu występowały w naszym społeczeństwie. Co sprawia, że wdrażanie inteligentnych technologii jest nie tylko technologicznie, ale również kwestią społeczną i etyczną. Z tych powodów niektórzy badacze twierdzą, że inżynierowie od dawna ukrywają się za technologicznymi aspektami sztucznej inteligencji, koncentrując się na poprawie obliczeń, a jednocześnie pomijając wpływ, jaki ich innowacje mogą mieć na użytkowników końcowych. Technologia plasuje się między twórcą a światem zewnętrznym. W artykule tym opisano trzy kwestie: dyskryminacja, odpowiedzialność i logika czarnej skrzynki.

Winter country with 20 telecommunication masts among firs and spruces

Kraj zimowy, w którym znajduje się 20 masztów telekomunikacyjnych wśród jodeł i świerków
:
Źródło domeny publicznej: https://labs.openai.com/

Dyskryminacja i traktowanie stronniczości 

Podobnie jak kobiety ubiegające się o członkostwo w Amazonii, osoby należące do grup mniejszościowych nie wchodzą w zakres stosowania systemów sztucznej inteligencji. Przyczyna wynika jasno z nazwy: są to osoby należące do mniejszości. Ich reprezentacja w danych będzie ograniczona, a algorytm nie pozna konkretnych cech przedstawiających te osoby. Podobnie jak ludzie, systemy osiągają gorsze wyniki przy ograniczonej wiedzy. Wyniki: czarne osoby są oznaczane przez inteligentne oprogramowanie Google do odczytu obrazów lub jako bardziej niebezpieczne w automatycznym systemie oceny ryzyka recydywy. Po prostu dlatego, że oprogramowanie zostało przeszkolone w zakresie zdjęć zawierających białe osobniki (i być może goryla).

Naukowcy zajmujący się danymi zdają sobie sprawę z tego problemu i istnieją już techniki poprawy wyników. Na przykład poprzez dostosowanie zbioru danych w taki sposób, aby lepiej reprezentowane były grupy mniejszościowe. Lub poprzez dodanie dodatkowego etapu w procesie uczenia się maszyn w celu dopracowania modelu.

Oraz jeszcze bardziej skomplikować dyskusję: co, jeśli nasz system przewiduje bardzo dobre wyniki? Zakładamy opracowanie dwóch algorytmów. Jedna, która prawidłowo wykrywa chorobę 80 % czasu u osobników białych, ale tylko 60 % czasu w przypadku osobników barwy. A drugi, który prawidłowo wykrywa chorobę tylko 60 % czasu, bez względu na tło. Czy powinniśmy wówczas dążyć do równości i przyjąć gorszy algorytm? Mimo że dyskryminujące rozwiązanie mogłoby potencjalnie uratować więcej białych osób? To właśnie w tym kontekście w grę wchodzą względy etyczne.

Nasz naukowiec ds. danych właśnie stał się osobą kształtującą wiarę miliona innych i musi nagle utrudniać kwestie etyczne. Dylematy etyczne, na które nie udzielono jeszcze odpowiedzi w debacie publicznej. Nie możemy oczekiwać, że inżynierowie podejmą takie decyzje, ani nie powinniśmy ich szukać. Przepisy są niezbędne do kierowania projektowaniem oprogramowania.

Artificial Intelligence is a good servant but a bad master

Sztuczna inteligencja jest dobrym atutem, ale złym mistrzem.
Ryzyko kredytowe: Zespół stop 5G

Odpowiedzialność i odpowiedzialność

W naszym społeczeństwie osoby ponoszą odpowiedzialność za swoje czyny. Dzięki inteligentnym systemom trudno jest zidentyfikować winę. Zwłaszcza jeśli systemy są złożone i samouczące się. Inżynierowie nie zawsze mogą przewidzieć, czego nauczy się system lub jak będzie się on zachowywał. Amazon prawdopodobnie nie zamierzał narażać kandydatów na szwank, a Google świadomie nie umieszczał mężczyzn na szczycie wyników wyszukiwania. Konsekwencje te pojawiły się dopiero po wprowadzeniu systemu na świat. Ale kto jest winą? Przedsiębiorstwo korzystające z tych systemów, mimo że nie miało uzasadnionych podstaw, by z góry wątpić w jakość systemu. Lub przedsiębiorstwo, które stworzyło system sprzedaży produktu, który okazał się dyskryminujący.

Innowacje zawsze zakłócają, a nie bez ryzyka. Domagają się dostosowań w naszym społeczeństwie i systemie wymiaru sprawiedliwości. Zabierz samochód. W pierwszych dniach jazdy samochód mógł swobodnie poruszać się po miastach bez pasów bezpieczeństwa, poduszek powietrznych i znaków drogowych. Do czasu szybkiego wzrostu liczby ofiar, a ulice stały się niemożliwe do pokonania. Nowe wytyczne i przepisy były niezbędne do usprawnienia nowej technologii w istniejącej infrastrukturze. Niewiele osób spodziewało się, że samochód stanie się tak niebezpieczny dla pieszego tłumu. Dzięki uregulowaniu użytkowania udało nam się zwiększyć bezpieczeństwo, a jednocześnie czerpać korzyści z tego nowego rodzaju transportu. Obecnie trudno sobie wyobrazić świat bez transportu napędzanego motorem.

Podobnie jak w przypadku samochodów zakaz stosowania systemów sztucznej inteligencji ze względu na ich początkowe niebezpieczne skutki byłby zbyt krótkowzroczny. Systemy sztucznej inteligencji mogą wywierać, a nawet już teraz wywierają pozytywny wpływ na nasze społeczeństwo. Jednak na tym etapie systemy sztucznej inteligencji są opracowywane i umieszczane w naszym codziennym życiu bez „pasów bezpieczeństwa” lub innych zabezpieczeń. Ważne jest, aby krytycznie zastanowić się nad tym, jak chcemy, aby sztuczna inteligencja istniała w naszym społeczeństwie. Rozpoczęcie dyskusji na temat tego, w jaki sposób możemy zwiększyć bezpieczeństwo tych systemów lub zmniejszyć szkody w przypadku nieoczekiwanych wyników.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

Sygnał ostrzegawczy
: Zespół stop 5G

Czarna skrzynka

W uzasadnieniu RODO stwierdza się, że ludzie mają prawo do wglądu w podstawy, na podstawie których podjęto decyzje, jakie dane są gromadzone i w jaki sposób będą one wykorzystywane. To stosunkowo nowatorskie prawo stanowi pewien krok we właściwym kierunku, ale jest dalekie od właściwego rozwiązania pozwalającego na ustanowienie prywatności lub przestrzeganie praw obywatelskich. Odwiedzając stronę internetową, użytkownicy często mają do czynienia z dużą ilością tekstu niejasnego wyjaśniającego, jakie dane osobowe są gromadzone. Przez większość czasu trudno jest odrzucić pliki cookie lub należy kliknąć na kilka okienek. Przedsiębiorstwa stosują wyraźne ograniczenia wynikające z RODO i nie ułatwiają osobom fizycznym nadzorowania własnych danych. W związku z tym uważamy, że RODO jest naiwną inicjatywą, która pokazuje głód danych przedsiębiorstw internetowych.

Jednak nawet jeśli przedsiębiorstwa byłyby bardziej skłonne dzielić się rzeczywistym gromadzeniem i wykorzystywaniem danych osobowych, nie zawsze są do tego w pełni zdolne. Wiele inteligentnych systemów funkcjonuje, jak czarne skrzynki: postawienie dużej ilości danych, a system da pewien wynik w zależności od cech danych. W ostatnich latach inżynierowie preferowali te systemy czarnej skrzynki. Takie systemy miały duży potencjał uczenia się bardziej złożonych pojęć, takich jak język czy obrazy. Słynnymi przykładami systemów czarnej skrzynki są sieci neuronowe, oprogramowanie do rozpoznawania twarzy lub oprogramowanie do przetwarzania języka naturalnego (np. Google Translate). Inżynierowie mają kontrolę nad niektórymi parametrami, ale nie mają żadnej wiedzy na temat rodzaju informacji, które systemy te uczą się lub wywodzą z danych. Tylko poprzez sprawdzenie wyników w odniesieniu do nowatorskich danych inżynier może oszacować, czy system dowiedział się, do czego się odnosił. Inżynier mógłby na przykład wprowadzić zestaw nowych obrazów, aby sprawdzić, czy system jest w stanie je zinterpretować. Jednak jak widzieliśmy wcześniej, jeżeli inżynier nie przetestował systemu wystarczająco dokładnie, zdjęcia osób kolorowych mogą być interpretowane jako zdjęcia małp. Czy inżynierowie Google mogli wiedzieć o tym błędzie? Dobrze, gdyby przetestowali oprogramowanie na zestawie zdjęć osób o kolorze skóry. Zdjęcia mogą jednak zawierać coś. I bardzo trudno byłoby zweryfikować system w odniesieniu do wszystkich.

Skuteczniejsze byłoby sprawdzenie, jakiego rodzaju rzeczy nauczyło się oprogramowanie. Jeżeli algorytm Google mógłby nam dowiedzieć się, jakie kroki podejmuje w celu uzyskania interpretacji, inżynierowie mogliby zweryfikować to rozumowanie i oszacować prawdopodobne wyjątki lub błędy. Dlatego członkowie społeczności naukowej apelują o bardziej zrozumiałe podejście do uczenia maszynowego. Algorytmy „czarnej skrzynki” nie wyczerpały jeszcze swojego potencjału i niekoniecznie są lepsze niż bardziej zrozumiałe algorytmy.

Zalety interpretacji tych zrozumiałych algorytmów są większe niż oczekiwana korzyść w zakresie wydajności algorytmów czarnej skrzynki. Tylko jeśli wiemy, co się dzieje, możemy odpowiednio ingerować lub dostosowywać.

Analytics Information by Reto Scheiwiller

Oglądanie czarnej skrzynki
kredytowej: Zespół stop 5G

Wniosek

Sztuczna inteligencja i inteligentne oprogramowanie są dość wszechobecne we współczesnym życiu. Wywieranie wpływu na procesy decyzyjne w przedsiębiorstwach i przejawianie uprzedzeń wobec grup mniejszościowych. Nie rozumiemy jednak w pełni, jak działa sztuczna inteligencja, jak wpływa na nas i jakie będą długoterminowe skutki.

Nie zapytano obywateli UE, czy akceptują wszechobecne skutki społeczne narzędzi decyzyjnych kierowanych przez sztuczną inteligencję w imię postępu technologicznego i cyfryzacji.

W związku z tym w europejskiej inicjatywie obywatelskiej „Stop ((((5G))) – Stay Connected but Protected” wzywamy do zaostrzenia przepisów w celu ochrony obywateli przed naruszeniami prywatności i dyskryminacją w wyniku niekontrolowanego wykorzystania systemu sztucznej inteligencji w procesie decyzyjnym w propozycjach 19, 21 i 22 europejskiej inicjatywy obywatelskiej.

I nie jesteśmy sami:

  • Europejska Rada Ochrony Danych nie przypomina nowych wniosków ustawodawczych Komisji Europejskiej, które ułatwią wykorzystywanie i wymianę danych (osobowych) przez większą liczbę podmiotów publicznych i prywatnych. Według Europejskiej Rady Ochrony Danych będzie to miało „znaczny wpływ na ochronę podstawowych praw do prywatności i ochrony danych osobowych”.
  • Rada Europejska podkreśla znaczenie ukierunkowanego na człowieka podejścia do polityki w zakresie AI. Należy zastanowić się nad takimi kwestiami, jak stronnicze i nieprzejrzyste podejmowanie decyzji mających wpływ na podstawowe prawa człowieka obywateli.
  • Wstępne badanie UNESCO na temat etyki sztucznej inteligencji na s. 10 stanowi, że „najważniejsze jest... kształcenie przyszłych inżynierów i informatyków w zakresie projektowania systemów sztucznej inteligencji w sposób zgodny z zasadami etycznymi”.
  • Inna europejska inicjatywa obywatelska (EIO) o nazwie Reclaim Your Face zażądała wprowadzenia zakazu stosowania szkodliwej sztucznej inteligencji, takiej jak obserwacja masy biometrycznej i rozpoznawania twarzy.
  • Już w 1942 r. Isaac Asimov przewidywał problemy i określił trzy przepisy dotyczące robotyki. Zgodnie z pierwszym prawem robot nie może szkodzić człowiekowi. Jak pokazano w tym artykule, jesteśmy daleki od tego.

 

 

Stop 5G - Blog Post Author

Autorzy

Amar van Uden

Amar van Uden jest pisarzem europejskiej inicjatywy obywatelskiej „Stop (((5G))) – Stay Connected but Protected”. Amar pochodzi z Niderlandów i prowadzi badania nad sztuczną inteligencją.

Napisz komentarz

Aby dodać uwagi, należy się uwierzytelnić lub zarejestrować.
Zastrzeżenie prawne: Opinie wyrażone na forum europejskiej inicjatywy obywatelskiej odzwierciedlają wyłącznie punkt widzenia ich autorów i w żaden sposób nie mogą być utożsamiane ze stanowiskiem Komisji Europejskiej ani Unii Europejskiej.
Chcesz przystąpić do rejestracji inicjatywy?

Zamierzasz poprzeć inicjatywę? Szukasz informacji o trwających lub zakończonych inicjatywach?