Siirry pääsisältöön
EU:n kansalaisaloitefoorumi

Eurooppalaiset turvallisten yhteyksien puolesta vaativat vahvempaa tekoälyn sääntelyä päätöksenteossa

Päivitetty: 24/01/2023

Europeans for Safe Connections on kansallisten ja kansainvälisten järjestöjen yhteenliittymä, joka on tietoinen nykyaikaisen viestintätekniikan kielteisistä seurauksista. Korostamme, että emme vastusta teknologiaa vaan kannattavat turvallista teknologiaa ja turvallisia yhteyksiä.

Kampanjan yhden vuoden aikana olemme oppineet kokemuksista, joista voi olla hyötyä tuleville järjestäjille. Jos kuulet, että sydämessäsi todella äänesi, kerrot sinua vaihtamaan maailmaa parempaan suuntaan kaikille: seuraa tätä ääntä, taistele eikä koskaan luovuta toivoa!

jos menet virtauksen kanssa, ihmiset joutuvat helposti käsiinsi, eikä älä kohtaa vastarintaa. Jos sinun on kuitenkin poikettava, viestisi voi olla tarpeen, sillä ohut maa-ainesta hylkivä vesi tarvitsee pehmeää pysyvää sadetta. Vaikka EU tarvitsee miljoona allekirjoitusta, sillä on merkitystä ideoiden laadulla.

Eurooppalaisessa kansalaisaloitteessa ”Stop (((5G))) – Stay Connected but Protected”on 23 ehdotusta. Kehotamme muun muassa parantamaan tekoälyn tietosuojan ja automaattisen päätöksenteon sääntelyä. Ehdotamme vaikutustenarvioinnin käynnistämistä 5G:n vaikutuksista henkilötietojen suojaan (ehdotus 19). Toivomme, että syrjintää ja digitaalisten oikeuksien loukkauksia torjutaan aktiivisesti (ehdotus 21), ja katsomme, että kansalaisille olisi tiedotettava, käsitelläänkö heidän tietojaan automatisoidussa menettelyssä (ehdotus 22).

Stop 5G - Logo

Miten se kaikki alkoi?

Tekoäly on ollut ympärillä jo jonkin aikaa. Jo 50 alkupuolella odotettiin, että älykäs teknologia tuo yhteiskunnallemme loputtomia mahdollisuuksia. Nyt, yli puoli vuosisataa myöhemmin, tekoälyä hyödyntävä teknologia on onnistunut hitaasti juurtumaan jokapäiväiseen elämäämme. Vaikka ihmisrobotit eivät vielä kävele maailmaamme, infrastruktuurin hallinnoinnissa, työprosesseissa ja vapaa-ajassa turvaudutaan monitahoisiin teknologioihin.

Nykyinen ”älykäs” teknologia saattaa poiketa siitä, mitä aiemmat tutkijat kutsuisivat ihmisen kaltaisiksi älykkäiksi koneiksi. Alan Turing määritteli tiedustelun ajatteluksi ja toimimiseksi ihmisten tavoin, mutta nykyään älykkäät järjestelmät tyhjittävät talomme rajoitetusti. On vaikeaa määritellä, mitä tekoäly tarkalleen ottaen on ja mitä se sisältää. Se on kuitenkin antanut meille mahdollisuuden elää tehokkaammin, sujuvammin ja ehkä vieläkin mukavammin.

Loputtoman automatisoinnin ja robotisaation haitat ovat kuitenkin yhä ilmeisempiä. Esimerkiksi Amazonin naispuoliset hakijat: hylättiin, koska algoritmi oli oppinut suosimaan miehiä naisille. Tai Microsoftin Twitterissä oleva chattibotti Tay, joka oli poistettava verkosta, koska se oli päätellyt jonkin verran rasistisia ”tottumuksia” muista tviittiläisistä. Tai se, että pääasiassa mieskuvia esiintyy Googlessa hakusanalla ”CEO”.

Voimme ajatella, että tekoäly näyttää poistavan miesten pahimman ja syventävän olemassa olevaa eriarvoisuutta. Tämä saattaa kuitenkin olla jokseenkin yksinkertaisempaa tehdä loppupäätelmä. Tekoälyjärjestelmät ja niiden perustana olevat algoritmit tukeutuvat usein dataan ja dataan saadakseen tietoa maailmastamme. Koneoppimistekniikat, kuten hermoverkostot ja päätöksentekopuut, yrittävät päätellä suuntauksia, käsitteiden välisiä yhteyksiä ja tärkeitä parametreja, jotka auttavat niitä valitsemaan oikeita vaihtoehtoja tulevissa pyynnöissä. Näitä tietoja ei ole koottu koneoppimisen vuoksi. Ei, suurin osa datasta on tuottanut meitä, ihmisiä, jotka klikkaavat internetiä ja jakoivat mieltymyksiämme. Käyttämällä dataamme oppimiseen tekoälyjärjestelmissä syntyy järjestelmällisiä vinoumia, joita jo jossain määrin esiintyy yhteiskunnassamme. Tämä tekee älykkäiden teknologioiden käyttöönotosta paitsi teknologisen myös yhteiskunnallisen ja eettisen kysymyksen. Näistä syistä jotkut tutkijat väittävät, että insinöörit ovat pitkään piilottaneet tekoälyn teknologisia näkökohtia ja keskittyneet laskelmien parantamiseen ja jättäneet huomiotta vaikutukset, joita heidän innovaatioillaan voi olla loppukäyttäjiin. Teknologia sijoittuu kehittäjän ja ulkomaailman väliin. Tässä artiklassa kuvataan kolmea asiaa: syrjintä, vastuuvelvollisuus ja mustan laatikon logiikka.

Winter country with 20 telecommunication masts among firs and spruces

Talvimaa, jossa on 20 tietoliikennemastoa ja kuuloa
: Julkinen
aluelähde: https://labs.openai.com/

Syrjintä ja ennakkoluulojen käsittely 

Samoin kuin Amazonin naispuoliset hakijat, vähemmistöryhmiin kuuluvat henkilöt jäävät tekoälyjärjestelmien varsinaisen soveltamisalan ulkopuolelle. Syy käy ilmi nimestä: nämä ihmiset muodostavat vähemmistön. Heidän edustuksensa datassa on rajoitettua, eikä algoritmi opi näitä henkilöitä edustavia erityispiirteitä. Ihmisten tavoin järjestelmät toimivat huonommin, ja niillä on vain vähän tietoa. Tulos: mustat henkilöt merkitään Googlen älykkäässä kuvanlukuohjelmistossa tai vaarallisemmiksi rikosten uusimisen automaattisessa riskinarviointijärjestelmässä. Yksinkertaisesti siksi, että ohjelmisto oli koulutettu valkoisia yksilöitä sisältävistä kuvista (ja mahdollisesti gorillasseista).

Tietotutkijat ovat olleet tietoisia tästä ongelmasta, ja suorituskyvyn parantamiseksi on jo olemassa tekniikoita. Esimerkiksi mukauttamalla tietoaineistoa siten, että vähemmistöryhmät ovat paremmin edustettuina. Tai lisäämällä koneoppimisprosessiin lisävaihe mallin hienosäätöä varten.

Ja mutkistaa keskustelua entisestään: Entä jos järjestelmämme ennustaa tuloksia erittäin hyvin. Oletetaan, että kehitämme kaksi algoritmia. Yksi niistä havaitsee oikein 80 prosenttia ajasta valkoisilla yksilöillä, mutta vain 60 prosenttia ajasta värillisillä yksilöillä. Toinen tauti havaitsee asianmukaisesti vain 60 prosenttia ajankohdasta taustasta riippumatta. Pitäisikö sitten pyrkiä tasa-arvoon ja käyttää huonompaa algoritmia? Vaikka syrjivällä tavalla voitaisiin mahdollisesti säästää enemmän valkoisia yksilöitä? Tässä yhteydessä otetaan huomioon eettiset näkökohdat.

Tietotutkijastamme on juuri tullut miljoonalle muulle uskoa muovaavaksi henkilöksi, ja hänen on yhtäkkiä tehtävä eettisistä näkökohdista vaikeaa. Eettiset ongelmat, joihin ei ole vielä vastattu julkisessa keskustelussa. Me emme voi odottaa insinöörien tekevän tällaisia päätöksiä, eikä meidän pitäisi haluta niitä tehdä. Ohjelmistosuunnittelun ohjaamiseksi tarvitaan säännöksiä.

Artificial Intelligence is a good servant but a bad master

Tekoäly on hyvä virkamies, mutta huono maisteri.
Luotto:

Pysäytä 5G-tiimi

Vastuuvelvollisuus ja vastuuYhteiskunnassamme yksilöt ovat vastuussa teoistaan. Älykkäillä järjestelmillä on vaikea tunnistaa syyllistä. Erityisesti jos järjestelmät ovat monimutkaisia ja itseoppivia. Insinöörit eivät aina voi ennustaa, mitä järjestelmä oppia tai miten se käyttäytyy. Amazon ei todennäköisesti aikonut vaarantaa naispuolisia hakijoita, eikä Google ollut tietoisesti asettanut miespuolisia hakutulosten kärkeen. Nämä seuraukset ilmenivät vasta sen jälkeen, kun järjestelmä tuotiin maailmaan. Keitä syytämme? Yritys käyttää näitä järjestelmiä, vaikka niillä ei ollut perusteltua syytä epäillä järjestelmän laatua etukäteen.

Tai yritys, joka on rakentanut syrjiväksi osoittautuneen tuotteen myyntijärjestelmän.Innovaatiot ovat aina häirinneet eivätkä riskittömiä. He pyytävät mukautuksia yhteiskunnassamme ja oikeusjärjestelmässämme. Ota auto. Ensimmäisinä päivinä auto sai liikkua vapaasti kaupunkien ympärillä ilman turvavöitä, turvatyynyjä ja liikennemerkkejä. Kuolonuhrien määrä kasvoi nopeasti, ja kadut muuttuivat murtumattomiksi. Uuden teknologian virtaviivaistamiseksi nykyisessä infrastruktuurissa tarvittiin uusia suuntaviivoja ja säännöksiä. Vain harvat ennustivat, että autosta tulisi niin vaarallinen kävelyjoukolle. Käytön sääntelyllä pystyimme parantamaan turvallisuutta ja hyödyntämään myös tämän uudentyyppisen liikenteen etuja.

Nykyään voimme tuskin kuvitella maailmaa ilman moottoriliikennettä.Aivan kuten autotkin, tekoälyjärjestelmien kieltäminen niiden alkuperäisten vaarallisten vaikutusten vuoksi olisi liian lyhytnäköistä. Tekoälyjärjestelmät voivat vaikuttaa myönteisesti yhteiskuntaan, ja ne ovat jo alkaneetkin vaikuttaa myönteisesti yhteiskuntaan. Tässä vaiheessa tekoälyjärjestelmiä on kuitenkin kehitetty ja upotettu osaksi jokapäiväistä elämäämme ilman ”turvavyötä” tai muita suojatoimia. On tärkeää pohtia kriittisesti, miten haluamme tekoälyn olevan olemassa yhteiskunnassamme.

Image showing a man waving a red flag for pedestrians to warn them of cars and a robot holding a red flag to warn about Artificial Intelligence

 
Varoitusmerkki :

Pysäytä 5G-tiimi

Musta laatikkoYleisen tietosuoja-asetuksen perusteluissa todetaan, että ihmisillä on oikeus nähdä perusteet, joiden perusteella päätökset on tehty, mitä tietoja kerätään ja miten näitä tietoja käytetään. Tämä suhteellisen uusi laki on ollut askel oikeaan suuntaan, mutta se ei ole läheskään asianmukainen ratkaisu yksityisyyden luomiseen tai kansalaisoikeuksien noudattamiseen. Käydessään internetsivustolla käyttäjät kohtaavat usein suuren määrän tekstiä, jossa selitetään epämääräisesti, mitä henkilötietoja kerätään. Useimmiten evästeitä on vaikea hylätä, tai sinun on napsautettava useita ponnahdusikkunoita. Yritykset noudattavat yleisen tietosuoja-asetuksen pelkkiä rajoituksia eivätkä tee yksityishenkilöiden helpoksi valvoa omia tietojaan.

Näin ollen uskomme, että yleinen tietosuoja-asetus on naiivinen aloite, joka osoittaa verkkoyritysten tietojen nälkää.Vaikka yritykset olisivatkin halukkaampia jakamaan todellista henkilötietojen keruuta ja käyttöä, ne eivät kuitenkaan aina pysty täysin siihen. Monet älykkäät järjestelmät toimivat, kuten mustat laatikot: ryhmitellään dataa ja järjestelmä tuottaa tietyn tuotoksen tietojen ominaisuuksien mukaan. Insinöörit ovat viime vuosina suosineet näitä mustan laatikon järjestelmiä. Tällaisilla järjestelmillä oli hyvät mahdollisuudet oppia monimutkaisempia käsitteitä, kuten kieltä tai kuvia. Tunnettuja esimerkkejä mustan laatikon järjestelmistä ovat neuroverkot, kasvojentunnistusohjelmistot tai luonnollisen kielen käsittelyohjelmistot (esim. Google Translate). Insinöörit voivat hallita joitakin parametreja, mutta heillä ei ole tietoa siitä, minkä tyyppisiä tietoja nämä järjestelmät oppivat tai päättelevät tiedoista. Insinööri voi arvioida vain tarkastamalla uusien tietojen suorituskykyä, jos järjestelmä on saanut tietää, mitä sillä oli tarkoitus. Insinööri voisi esimerkiksi syöttää uusia kuvia nähdäkseen, pystyykö järjestelmä tulkitsemaan niitä. Kuten edellä todettiin, jos insinööri ei ole testannut järjestelmää riittävän perusteellisesti, värikkäiden ihmisten valokuvia voidaan tulkita apinoiksi. Voisivatko Googlen insinöörit tietää tästä virheestä? Jos he olisivat testanneet ohjelmistoa värillisistä henkilöistä koostuvilla valokuvilla. Valokuvat voivat kuitenkin sisältää mitä tahansa.

Järjestelmän tarkistaminen kaiken osalta olisi erittäin vaikeaa.Tehokkaampia olisi tarkistaa, minkälaisia asioita ohjelmisto on oppinut. Jos Googlen algoritmi voisi kertoa, millaisia toimia se toteuttaa tulkinnan saamiseksi, insinöörit voisivat tarkistaa tämän päättelyn ja arvioida todennäköiset poikkeukset tai virhetapaukset. Tämän vuoksi tiedeyhteisön jäsenet ovat vaatineet ymmärrettävämpiä lähestymistapoja koneoppimiseen.

Mustan laatikon algoritmit eivät ole vielä hyödyntäneet potentiaaliaan eivätkä välttämättä ole parempia kuin ymmärrettävämmät algoritmit.Näiden ymmärrettävien algoritmien tulkintahyöty on suurempi kuin mustan laatikon algoritmien odotettu suorituskykyetu.

Analytics Information by Reto Scheiwiller

 
Katso musta laatikko Luoki:

Pysäytä 5G-tiimi

PäätelmätTekoäly ja älykkäät ohjelmistot ovat melko yleisiä nykyaikaisessa elämässä. Vaikuttaminen yritysten päätöksentekoprosesseihin ja vähemmistöryhmiin kohdistuva puolueellisuus.

Emme kuitenkaan täysin ymmärrä, miten tekoäly toimii, miten se vaikuttaa meihin ja mitkä ovat pitkän aikavälin vaikutukset.

EU:n kansalaisilta ei ole kysytty, hyväksyvätkö he tekoälyn ohjaamien päätöksentekovälineiden laajalle ulottuvat yhteiskunnalliset seuraukset teknologian kehityksen ja digitalisaation nimissä.

Siksi eurooppalaisessa kansalaisaloitteessa ”Stop ((((5G))) – Stay Connected but Protected” peräänkuulutamme tiukempaa sääntelyä kansalaisten suojelemiseksi yksityisyyden loukkauksilta ja syrjinnältä, jotka johtuvat tekoälyjärjestelmän hallitsemattomasta käytöstä päätöksenteossa eurooppalaisen kansalaisaloitteen ehdotuksissa 19, 21 ja 22.

  • Emmekä ole yksin:Euroopan tietosuojaneuvosto ei kannata Euroopan komission uusia lainsäädäntöehdotuksia, joilla helpotetaan (henkilö)tietojen käyttöä ja jakamista yhä useampien julkisten ja yksityisten osapuolten välillä.
  • Euroopan tietosuojaneuvoston mukaan tämä ”vaikuttaa merkittävästi yksityisyyden suojaan ja henkilötietojen suojaan”.Eurooppa-neuvosto korostaa ihmiskeskeisen lähestymistavan merkitystä tekoälypolitiikassa.
  • Pohdi muun muassa puolueellista ja läpinäkymätöntä päätöksentekoa, joka vaikuttaa kansalaisten perusihmisoikeuksiin.
  • Unescon alustavassa tutkimuksessa tekoälyn etiikasta sivulla 10 todetaan, ettäon tärkeää kouluttaa tulevia insinöörejä ja tietokonetutkijoita tekoälyjärjestelmien eettisesti yhdenmukaiseen suunnitteluun.
  • Toisessa eurooppalaisessa kansalaisaloitteessa ” Reclaim Your Face ” vaadittiin kieltämään haitallisen tekoälyn, kuten biometrisen massan ja kasvojentunnistuksen, käyttö.Jo vuonna 1942 Isaac Asimov selvitti ongelmia ja totesi kolme robotiikan lakia. Ensimmäinen laki on, että robotti ei saa vahingoittaa ihmistä.

Kuten tästä artikkelista käy ilmi, olemme kaukana tästä.

 

Stop 5G - Blog Post Author

Laatijat

 

Amar van UdenAmar van Uden on kirjoittaja eurooppalaiselle kansalaisaloitteelle ”Stop ((((5G))) – Stay Connected but Protected”.

Lisää kommentti

Jos haluat lisätä kommentteja, kirjaudu sisään tai rekisteröidy.
Vastuuvapauslauseke: EU:n kansalaisaloitefoorumissa esitetyt mielipiteet ovat kirjoittajien omia. Ne eivät millään tapaa edusta Euroopan komission tai Euroopan unionin kantaa.