Luo tili

raportti

Opas poliittisille päättäjille: Nopeasti kehittyvien teknologioiden arviointi, mukaan lukien tekoäly, suuret kielimallit ja muut

Tässä asiakirjassa ISC tutkii puitteita, joilla tiedotetaan poliittisille päättäjille monista tekoälyyn liittyvistä maailmanlaajuisista ja kansallisista keskusteluista.

ISC:n opas tarjoaa kattavan viitekehyksen, joka on suunniteltu kuromaan umpeen korkean tason periaatteiden ja käytännöllisen, toimivan politiikan välillä. Se vastaa kiireelliseen yhteisymmärrykseen sekä uusien teknologioiden tarjoamista mahdollisuuksista että riskeistä. Tämä on olennainen asiakirja niille, jotka työskentelevät politiikan parissa nopeasti muuttuvalla digitaalisella aikakaudellamme.

Viitekehyksessä tutkitaan tekoälyn ja sen johdannaisten mahdollisuuksia kattavan objektiivin kautta, joka kattaa ihmisten ja yhteiskunnan hyvinvoinnin sekä ulkoiset tekijät, kuten talouden, politiikan, ympäristön ja turvallisuuden. Jotkin tarkistuslistan näkökohdat voivat olla merkityksellisempiä kuin toiset kontekstista riippuen, mutta paremmat päätökset näyttävät todennäköisemmiltä, ​​jos kaikki alueet otetaan huomioon, vaikka jotkin voidaan nopeasti tunnistaa merkityksettömiksi tietyissä tapauksissa. Tämä on tarkistuslistalähestymistavan luontainen arvo.

”Nopeiden teknologisten innovaatioiden ja monimutkaisten globaalien haasteiden aikakaudella ISC:n kehys mahdollisten vaikutusten kattavalle ja moniulotteiselle analyysille antaa johtajille mahdollisuuden tehdä tietoisia ja vastuullisia päätöksiä. Se varmistaa, että edistyessämme teknologisesti harkitsemme huolellisesti eettiset, sosiaaliset ja taloudelliset vaikutukset."

Peter Gluckman, ISC:n puheenjohtaja

Vaikka muun muassa Unesco, OECD, Euroopan komissio ja YK ovat julistaneet korkean tason periaatteita ja keskusteluja mahdollisista hallinto-, sääntely-, etiikka- ja turvallisuuskysymyksistä jatkuvat, tällaisten periaatteiden ja periaatteiden välillä on suuri ero. hallintoa tai sääntelykehystä. ISC vastaa tähän tarpeeseen uudella poliittisille päättäjille tarkoitetulla oppaallaan.

Tämän poliittisten päättäjien oppaan tarkoituksena ei ole kieltää sääntelyjärjestelmää, vaan pikemminkin ehdottaa mukautuvaa ja kehittyvää analyyttistä kehystä, joka voisi tukea kaikkia sidosryhmien, mukaan lukien hallitukset ja monenkeskinen järjestelmä, mahdollisesti kehittämiä arviointi- ja sääntelyprosesseja.

"Kehys on kriittinen askel maailmanlaajuisessa keskustelussa tekoälystä, koska se tarjoaa perustan, jolle voimme rakentaa yksimielisyyttä teknologian vaikutuksista nyt ja tulevaisuudessa." 

Hema Sridhar, entinen tieteellinen pääneuvonantaja Uuden-Seelannin puolustusministeriössä ja nykyinen vanhempi tutkija Fellow, Aucklandin yliopisto, Uusi-Seelanti.

Lokakuusta 2023 lähtien on tehty useita merkittäviä kansallisia ja monenvälisiä aloitteita, joissa on pohdittu edelleen tekoälyn etiikkaa ja turvallisuutta. Tekoälyn vaikutukset joidenkin kriittisten järjestelmien eheyteen, mukaan lukien rahoitus-, hallinto-, laki- ja koulutusjärjestelmät, sekä erilaiset tietojärjestelmät (mukaan lukien tieteellinen ja kotimainen tieto) ovat yhä huolestuttavia. Kehys heijastaa edelleen näitä näkökohtia.

ISC:n jäseniltä ja kansainväliseltä päätöksentekoyhteisöltä tähän mennessä saatu palaute näkyy analyyttisen viitekehyksen uudistetussa versiossa, joka on nyt julkaistu oppaana päättäjille.

Opas poliittisille päättäjille: Nopeasti kehittyvien teknologioiden arviointi, mukaan lukien tekoäly, suuret kielimallit ja muut

Tämä keskusteluasiakirja tarjoaa ääriviivat alustavalle viitekehykselle, joka antaa tietoa monista tekoälyyn liittyvistä maailmanlaajuisista ja kansallisista keskusteluista.

Kehys käytettäväksi organisaatiossasi

Lataa kehys käytettäväksi organisaatiossasi

Tässä tarjoamme kehystyökalun muokattavana Excel-arkina käytettäväksi organisaatiossasi. Jos pidät avoimen lähdekoodin muodossa, ota yhteyttä [sähköposti suojattu].

esittely

Nopeasti syntyvä teknologia tuo haasteita niiden käytön, hallinnan ja mahdollisen sääntelyn suhteen. Meneillään oleva tekoälyä (AI) ja sen käyttöä koskeva politiikka ja julkinen keskustelu ovat nostaneet nämä kysymykset akuuttiin. Unesco, OECD, YK ja muut, mukaan lukien Yhdistyneen kuningaskunnan Bletchley-julistus, ovat ilmoittaneet tekoälyn laajoista periaatteista, ja uusia lainkäyttövaltaisia ​​yrityksiä on säännellä teknologian näkökohtia esimerkiksi Euroopan unionin (EU) tekoälyn kautta. laki tai äskettäinen Yhdysvaltain tekoälyn toimeenpanomääräys.

Vaikka tekoälyn käytöstä keskustellaan pitkään näillä ja muilla foorumeilla, geopoliittisten jakojen yli ja kaikissa tulotasoissa olevissa maissa, korkean tason periaatteiden kehittämisen ja niiden käytännön soveltamisen välillä on edelleen ontologinen kuilu joko sääntelyn, politiikan tai hallinnon kautta. tai taloudenhoito lähestymistapoja. Polku periaatteesta käytäntöön on huonosti määritelty, mutta tekoälyn kehityksen ja sovellusten luonteen ja taajuuden, kiinnostuksen kohteiden vaihtelevuuden ja mahdollisten sovellusten kirjo huomioon ottaen mikään lähestymistapa ei voi olla liian yleinen tai ohjeellinen.

Näistä syistä valtiosta riippumattomalla tiedeyhteisöllä on edelleen erityinen rooli. Kansainvälinen tiedeneuvosto (ISC) – sen moniarvoinen yhteiskunta- ja luonnontieteiden jäsenistö – julkaisi lokakuussa 2023 keskustelupaperin, jossa esiteltiin alustava analyyttinen viitekehys, jossa pohdittiin nopeasti muuttuvaan digitaaliteknologiaan liittyviä riskejä, etuja, uhkia ja mahdollisuuksia. Vaikka se kehitettiin tekoälyn huomioon ottamiseksi, se on luonnostaan ​​teknologiaagnostikko, ja sitä voidaan soveltaa useisiin nouseviin ja häiritseviin teknologioihin, kuten synteettiseen biologiaan ja kvanttiin. Tämä keskusteluasiakirja pyysi palautetta tutkijoilta ja poliittisista päättäjistä. Valtava palaute teki tällaisen analyysin suorittamisen tarpeelliseksi ja oli arvokas lähestymistapa uusiin teknologioihin, kuten tekoälyyn.

Kehyksen tarkoituksena on tarjota työkalu, jolla tiedotetaan kaikille sidosryhmille – mukaan lukien hallitukset, kauppaneuvottelijat, sääntelijät, kansalaisyhteiskunta ja teollisuus – näiden tekniikoiden kehityksestä, jotta he voivat arvioida, miten ne voivat pohtia tekniikan positiivisia tai kielteisiä vaikutuksia. itse tekniikka ja erityisesti sen tietty sovellus. Tämä analyyttinen viitekehys on kehitetty hallituksen ja teollisuuden eduista riippumatta. Se on näkökulmiltaan mahdollisimman moniarvoinen, ja se kattaa kaikki teknologian osa-alueet ja sen vaikutukset laajan kuulemisen ja palautteen perusteella.

Tämän poliittisille päättäjille tarkoitetun keskusteluasiakirjan tarkoituksena ei ole kieltää sääntelyjärjestelmää, vaan pikemminkin ehdottaa mukautuvaa ja kehittyvää analyyttistä kehystä, joka voisi tukea kaikkia arviointi- ja sääntelyprosesseja, joita sidosryhmät, mukaan lukien hallitukset ja monenvälinen järjestelmä, voivat kehittää.

Koska päättäjät maailmanlaajuisesti ja kansallisesti harkitsevat asianmukaisia ​​politiikan asetuksia ja keinoja tasapainottaakseen uuden teknologian, kuten tekoälyn, riskit ja hyödyt, analyyttinen viitekehys on tarkoitettu täydentäväksi työkaluksi, jolla varmistetaan, että kaikki mahdolliset vaikutukset otetaan asianmukaisesti huomioon.

Taustaa: miksi analyyttinen viitekehys?

Tekoälyn monimutkaisuus ja seuraukset sisältävät teknologioiden nopean ilmaantumisen saa aikaan monia suuria hyötyjä koskevia väitteitä. Se kuitenkin herättää myös pelkoa merkittävistä riskeistä yksilötasolta geostrategiseen tasoon.1 Suuri osa tähänastisesta keskustelusta on pidetty binaarisessa mielessä, koska julkisesti ilmaistut näkemykset tapahtuvat yleensä spektrin ääripäissä. Tekoälyn puolesta tai sitä vastaan ​​esitetyt väitteet ovat usein hyperbolisia ja – tekniikan luonteen vuoksi – vaikeita arvioida.

Pragmaattisempi lähestymistapa on tarpeen, kun hyperboli korvataan kalibroiduilla ja rakeisemmilla arvioinneilla. Tekoälyteknologia kehittyy edelleen, ja historia osoittaa, että käytännössä jokaisella tekniikalla on sekä hyödyllisiä että haitallisia käyttötarkoituksia. Kysymys kuuluukin: kuinka voimme saavuttaa tämän tekniikan hyödyllisiä tuloksia samalla kun vähennämme haitallisten seurausten riskiä, ​​joista osa voi olla laajuudeltaan eksistentiaalista?

Tulevaisuus on aina epävarma, mutta tekoälystä ja generatiivisesta tekoälystä on riittävästi uskottavia ja asiantuntevia ääniä, jotka kannustavat suhteellisen varovaiseen lähestymistapaan. Lisäksi järjestelmällinen lähestymistapa on välttämätön, koska tekoäly on teknologioiden luokka, jota käyttävät ja soveltavat laajasti monenlaiset käyttäjät. Tämä tarkoittaa, että koko konteksti on otettava huomioon, kun tarkastellaan tekoälyn käytön vaikutuksia yksilöihin, sosiaaliseen elämään, kansalaiselämään, yhteiskunnalliseen elämään ja globaalissa kontekstissa.

Toisin kuin useimmissa muissa teknologioissa, digitaalisten ja niihin liittyvien teknologioiden osalta kehitys, julkaisu ja soveltaminen on erittäin lyhyt aika, mikä johtuu suurelta osin tuotantoyhtiöiden tai virastojen eduista. Luonteeltaan – ja koska se perustuu digitaaliseen runkoon – tekoälyllä on sovelluksia, jotka leviävät nopeasti, kuten on jo nähty suurten kielimallien kehittämisessä. Tämän seurauksena jotkin ominaisuudet saattavat tulla ilmi vasta vapautumisen jälkeen, mikä tarkoittaa, että on olemassa odottamattomien seurausten riski, sekä pahantahtoisten että hyväntahtoisten.

Tärkeät yhteiskunnalliset arvot, erityisesti eri alueilla ja kulttuureissa, vaikuttavat siihen, miten mikä tahansa käyttö koetaan ja hyväksytään. Lisäksi geostrategiset intressit hallitsevat jo nyt keskustelua, kun suvereenit ja monenväliset intressit leikkaavat jatkuvasti ja johtavat siten kilpailuun ja jakautumiseen.

Tähän mennessä suuri osa virtuaaliteknologian sääntelystä on nähty suurelta osin "periaatteiden" ja vapaaehtoisen noudattamisen linssin läpi, vaikkakin EU:n tekoälylain kanssa.2 ja vastaavia, näemme siirtymisen täytäntöönpanokelpoisempiin mutta hieman kapeampiin säännöksiin. Tehokkaan maailmanlaajuisen tai kansallisen teknologian hallinto- ja/tai sääntelyjärjestelmän luominen on edelleen haastavaa, eikä siihen ole selvää ratkaisua. Ketjun varrella tarvitaan useita riskitietoisen päätöksenteon tasoja keksijältä tuottajalle, käyttäjälle, hallitukselle ja monenväliseen järjestelmään.

Vaikka muun muassa Unesco, OECD, Euroopan komissio ja YK ovat julistaneet korkean tason periaatteita, ja korkean tason keskusteluja jatketaan mahdollisista hallinto-, sääntely-, etiikka- ja turvallisuuskysymyksistä, niiden välillä on suuri kuilu. periaatteita ja hallinto- tai sääntelykehystä. Tähän on puututtava.

ISC harkitsee lähtökohtana sellaisen näkemysten taksonomian kehittämistä, johon kuka tahansa kehittäjä, sääntelijä, poliittinen neuvonantaja, kuluttaja tai päätöksentekijä voisi viitata. Kun otetaan huomioon näiden teknologioiden laajat vaikutukset, tällaisessa taksonomiassa on otettava huomioon seurausten kokonaisuus pikemminkin kuin kapea-alainen kehystys. Maailmanlaajuinen pirstoutuminen lisääntyy, koska geostrategiset intressit vaikuttavat päätöksentekoon, ja tämän tekniikan kiireellisyyden vuoksi on välttämätöntä, että riippumattomat ja neutraalit äänet kannattavat jatkuvasti yhtenäistä ja osallistavaa lähestymistapaa.


1) Hindustan Times. 2023. G20:n on perustettava kansainvälinen teknologisia muutoksia käsittelevä paneeli.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) EU:n tekoälylaki. 2023. https://artificialintelligenceact.eu

Analyyttisen viitekehyksen kehittäminen

ISC on tärkein maailmanlaajuinen valtiosta riippumaton järjestö, joka yhdistää luonnon- ja yhteiskuntatieteet. Sen maailmanlaajuinen ja kurinalainen ulottuvuus tarkoittaa, että sillä on hyvät mahdollisuudet tuottaa riippumattomia ja maailmanlaajuisesti olennaisia ​​neuvoja edessä olevien monimutkaisten valintojen tekemiseksi, varsinkin kun tällä areenalla äänet tulevat suurelta osin teollisuudesta tai suurten teknologiavaltojen poliittisista ja poliittisista yhteisöistä.

Laajan keskustelun jakson jälkeen, johon sisältyi valtiosta riippumattoman arviointiprosessin harkitseminen, ISC totesi, että sen hyödyllisin panos olisi tuottaa mukautuva analyyttinen viitekehys, jota kaikki voivat käyttää keskustelun ja päätöksenteon perustana. sidosryhmiä, myös mahdollisten virallisten arviointiprosessien aikana.

Alustava analyyttinen viitekehys, joka julkaistiin keskustelua ja palautetta varten lokakuussa 2023, muodosti kattavan tarkistuslistan, joka on suunniteltu sekä valtion että kansalaisjärjestöjen käyttöön. Viitekehyksessä tunnistettiin ja tutkittiin tekoälyn ja sen johdannaisten kaltaisen teknologian potentiaalia laajan objektiivin kautta, joka kattaa ihmisten ja yhteiskunnan hyvinvoinnin sekä ulkoiset tekijät, kuten talouden, politiikan, ympäristön ja turvallisuuden. Jotkin tarkistuslistan näkökohdat voivat olla merkityksellisempiä kuin toiset kontekstista riippuen, mutta paremmat päätökset näyttävät todennäköisemmiltä, ​​jos kaikki alueet otetaan huomioon, vaikka jotkin voidaan nopeasti tunnistaa merkityksettömiksi tietyissä tapauksissa. Tämä on tarkistuslistalähestymistavan luontainen arvo.

Alustava viitekehys on johdettu aikaisemmasta työstä ja ajattelusta, mukaan lukien Kansainvälisen valtion tieteellisen neuvonnan verkoston (INGSA) raportti digitaalisesta hyvinvoinnista3 ja OECD Framework for the Classification of AI Systems,4 esittääkseen kokonaisuuden mahdollisista mahdollisuuksista, riskeistä ja vaikutuksista. AI:sta. Näiden aikaisempien tuotteiden tarkoitus oli rajoitetumpi aikansa ja kontekstinsa vuoksi. tarvitaan kattava viitekehys, joka kattaa kaikki ongelmat sekä lyhyellä että pitkällä aikavälillä.

Julkaisunsa jälkeen keskustelupaperi on saanut merkittävää tukea monilta asiantuntijoilta ja päättäjiltä. Monet ovat erityisesti kannattaneet suositusta kehittää mukautuva viitekehys, joka mahdollistaa tietoisen ja ennakoivan teknologian riskien ja seurausten huomioimisen ja ottaa näin tehdessään aina huomioon kokonaisuuden yksilöstä yhteiskuntaan ja järjestelmiin.

Yksi palautteen kautta tehty keskeinen havainto oli sen tunnustaminen, että useat viitekehyksessä käsitellyt vaikutukset ovat luonnostaan ​​monitahoisia ja ulottuvat useisiin luokkiin. Esimerkiksi disinformaatiota voitaisiin tarkastella sekä yksilöllisen että geostrategisen objektiivin näkökulmasta; näin ollen seuraukset olisivat laajat.

Ehdotettiin myös mahdollisuutta sisällyttää tapaustutkimuksia tai esimerkkejä kehyksen testaamiseen. Tätä voitaisiin käyttää ohjeiden laatimiseen, joilla havainnollistetaan, kuinka sitä voitaisiin käyttää käytännössä eri yhteyksissä. Tämä olisi kuitenkin merkittävä hanke ja saattaa rajoittaa sitä, miten eri ryhmät kokevat tämän kehyksen käytön. Sen tekevät parhaiten päättäjät, jotka työskentelevät asiantuntijoiden kanssa tietyillä lainkäyttöalueilla tai yhteyksissä.

Lokakuusta 2023 lähtien on tehty useita merkittäviä kansallisia ja monenvälisiä aloitteita, joissa on pohdittu edelleen tekoälyn etiikkaa ja turvallisuutta. Tekoälyn vaikutukset joidenkin kriittisten järjestelmien eheyteen, mukaan lukien rahoitus-, hallinto-, laki- ja koulutusjärjestelmät, sekä erilaiset tietojärjestelmät (mukaan lukien tieteellinen ja kotimainen tieto) ovat yhä huolestuttavia. Tarkistettu kehys heijastaa edelleen näitä näkökohtia.

Tähän mennessä saatu palaute näkyy analyyttisen viitekehyksen uudistetussa versiossa, joka on nyt julkaistu oppaana poliittisille päättäjille.

Vaikka viitekehys esitetään tekoälyn ja siihen liittyvien teknologioiden kontekstissa, se on välittömästi siirrettävissä muihin nopeasti kehittyviin teknologioihin, kuten kvantti- ja synteettiseen biologiaan.


3) Gluckman, P. ja Allen, K. 2018. Hyvinvoinnin ymmärtäminen nopeiden digitaalisten ja siihen liittyvien muutosten kontekstissa. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OECD. 2022. OECD Framework for the Classification of AI systems. OECD Digital Economy Papers, nro 323, #. Paris, OECD Publishing.
https://oecd.ai/en/classificatio

Viitekehys

Seuraavassa taulukossa esitetään oletetun analyyttisen viitekehyksen mitat. Esimerkkejä tarjotaan havainnollistamaan, miksi kukin verkkoalue voi olla tärkeä; Tässä yhteydessä kehys vaatisi asiayhteyteen liittyvää laajennusta. On myös tärkeää erottaa yleiset ongelmat, joita syntyy alustan kehittämisen aikana, ja ne, jotka voivat ilmaantua tiettyjen sovellusten aikana. Mitään yksittäistä tähän sisällytettyä näkökohtaa ei pitäisi pitää prioriteettina, ja siksi kaikkia olisi tarkasteltava.

Ongelmat on ryhmitelty laajasti seuraaviin luokkiin alla kuvatulla tavalla:

  • Hyvinvointi (mukaan lukien yksilön tai itsensä, yhteiskunnan, sosiaalisen elämän ja kansalaiselämän hyvinvointi)
  • Kauppa ja talous
  • ympäristö-
  • Geostrateginen ja geopoliittinen
  • Teknologinen (järjestelmän ominaisuudet, suunnittelu ja käyttö)

Taulukossa kerrotaan mitoista, jotka on ehkä otettava huomioon uutta tekniikkaa arvioitaessa.

– INGSA. 2018. Hyvinvoinnin ymmärtäminen nopean digitaalisen muutoksen ja siihen liittyvien muutosten kontekstissa.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf

– Uudet kuvaajat (hankittu laajan kuulemisen, palautteen ja kirjallisuuskatsauksen kautta)

– OECD:n tekoälyjärjestelmien luokittelukehys: työkalu tehokkaille tekoälypolitiikoille.
https://oecd.ai/en/classification

Vaikutusmitat: Yksilö / itse

KriteeriEsimerkkejä siitä, kuinka tämä voi näkyä analyysissä
Käyttäjien AI-kompetenssiKuinka päteviä ja tietoisia järjestelmän ominaisuuksista ovat todennäköiset käyttäjät, jotka ovat vuorovaikutuksessa järjestelmän kanssa? Miten heille toimitetaan asiaankuuluvat käyttäjätiedot ja varoitukset?
Vaikutuksen kohteena oleva sidosryhmäKetkä ovat tärkeimmät sidosryhmät, joihin järjestelmä vaikuttaa (yksityishenkilöt, yhteisöt, heikossa asemassa olevat, sektorin työntekijät, lapset, päättäjät, ammattilaiset jne.)?
valinnaisuusOnko käyttäjille mahdollisuus kieltäytyä järjestelmästä vai tarjotaanko heille mahdollisuuksia haastaa tai korjata tulos?
Ihmisoikeuksiin ja demokraattisiin arvoihin kohdistuvat riskitVaikuttaako järjestelmä olennaisesti ihmisoikeuksiin, mukaan lukien mutta ei rajoittuen yksityisyyteen, sananvapauteen, oikeudenmukaisuuteen, syrjimättömyyteen jne.?
Mahdolliset vaikutukset ihmisten hyvinvointiinLiittyvätkö järjestelmän vaikutusalueet yksittäisen käyttäjän hyvinvointiin (työn laatu, koulutus, sosiaalinen vuorovaikutus, mielenterveys, identiteetti, ympäristö jne.)?
Mahdollisuus ihmisten työvoiman siirtymiseenOnko järjestelmällä mahdollisuuksia automatisoida ihmisten suorittamia tehtäviä tai toimintoja? Jos on, mitkä ovat loppupään seuraukset?
Mahdollisuus identiteetin, arvojen tai tiedon manipulointiinOnko järjestelmä suunniteltu tai mahdollisesti kykenevä manipuloimaan käyttäjän identiteettiä tai
asettaa arvoja tai levittää disinformaatiota?
Mahdollisuuksia itseilmaisuun ja itsensä toteuttamiseenOnko olemassa keinotekoisuutta ja itsevarmuutta? Onko mahdollista väärää tai
todentamattomia asiantuntemusta koskevia väitteitä?
Itsearvon mittaritOnko paineita esittää idealisoitua itseään? Voisiko automaatio korvata tunteen
henkilökohtaisesta täyttymyksestä? Onko paineita kilpailla järjestelmän kanssa
työpaikka? Onko yksilön mainetta vaikeampi suojata disinformaatiolta?
yksityisyysOnko yksityisyyden turvaamiseen hajautettu vastuu ja onko niitä olemassa
oletuksia siitä, miten henkilötietoja käytetään?
AutonomiaVoisiko tekoälyjärjestelmä vaikuttaa ihmisen autonomiaan luomalla liiallista riippuvuutta?
loppukäyttäjät?
Ihmisen kehittyminenOnko vaikutusta ihmisen kehityksen avaintaitojen hankkimiseen, esim
toimeenpanotoimintoja tai ihmissuhdetaitoja tai huomioimiseen vaikuttavia muutoksia
oppiminen, persoonallisuuden kehitys, mielenterveyshuolet jne.?
Henkilökohtainen terveydenhoitoOnko väitteitä itsediagnoosista tai yksilöllisistä terveydenhuoltoratkaisuista? Jos niin,
onko ne validoitu viranomaisstandardien mukaisesti?
Henkinen terveysOnko olemassa lisääntynyttä ahdistuneisuutta, yksinäisyyttä tai muita mielenterveysongelmia, tai
voiko tekniikka lieventää tällaisia ​​vaikutuksia?
Ihmisen evoluutioVoisiko suuret kielimallit ja yleinen tekoäly muuttaa
ihmisen evoluution kulku?
Ihmisen ja koneen vuorovaikutusVoisiko käyttö johtaa ajan mittaan yksilöiden osaamisen heikkenemiseen ja riippuvuuteen? Are
onko vaikutusta ihmisten väliseen vuorovaikutukseen?
5) Kehyksessä tarkastellut tekniset kriteerit koskevat nimenomaan tekoälyä, ja niitä on tarkistettava tarvittaessa muiden teknologioiden osalta.

Vaikutuksen ulottuvuudet: Yhteiskunta/sosiaalinen elämä

Kriteeri Esimerkkejä siitä, kuinka tämä voi näkyä analyysissä
Yhteiskunnalliset arvotMuuttaako järjestelmä perusteellisesti yhteiskunnan luonnetta, mahdollistaako aiemmin epäsosiaalisina pidettyjen ajatusten normalisoinnin vai rikkooko se sen kulttuurin yhteiskunnallisia arvoja, jossa sitä sovelletaan?
Sosiaalinen vuorovaikutusOnko sillä vaikutusta mielekkääseen ihmiskontaktiin, mukaan lukien tunnesuhteet?
Väestön terveysOnko järjestelmällä potentiaalia edistää tai heikentää väestön terveydellisiä aikomuksia?
Kulttuurinen ilmaisuOnko kulttuurisen omaisuuden tai syrjinnän lisääntyminen todennäköistä tai vaikeampaa käsitellä? Syrjäyttääkö tai marginalisoiko päätöksentekojärjestelmään riippuvuus kulttuurisesti merkitykselliset yhteiskunnan osasiteet?
Julkinen koulutusOnko sillä vaikutusta opettajan rooleihin tai oppilaitoksiin? Korostaako vai vähentääkö järjestelmä opiskelijoiden digitaalista kuilua ja eriarvoisuutta? Onko tiedon tai kriittisen ymmärryksen sisäinen arvo kehittynyt vai heikentynyt?
Vääristynyt todellisuusOvatko menetelmät, joita käytetään todellisuuden havaitsemiseen, edelleen? Onko todellisuuden käsitys vaarantunut?

Vaikutusten ulottuvuudet: Taloudellinen konteksti (kauppa)

KriteeriEsimerkkejä siitä, kuinka tämä voi näkyä analyysissä
TeollisuusMillä teollisuudenalalla järjestelmä on käytössä (rahoitus, maatalous, terveydenhuolto, koulutus, puolustus jne.)?
BisnesmalliMissä liiketoimintatoiminnossa järjestelmää käytetään ja missä ominaisuudessa? Missä järjestelmää käytetään (yksityinen, julkinen, voittoa tavoittelematon)?
Vaikutukset kriittisiin toimintoihinVaikuttaako järjestelmän toiminnan tai toiminnan häiriö keskeisiin palveluihin tai kriittisiin infrastruktuureihin?
Käyttöönoton laajuusMiten järjestelmä on otettu käyttöön (kapea käyttö yksikön sisällä vs. laajalle levinnyt kansallinen/kansainvälinen)?
Tekninen kypsyysKuinka teknisesti kypsä järjestelmä on?
InteroperabilityOnko olemassa todennäköisesti kansallisia tai maailmanlaajuisia siiloita, jotka estävät vapaakauppaa ja vaikuttavat yhteistyöhön kumppanien kanssa?
Teknologinen itsemääräämisoikeusOhjaako halu teknologiseen itsemääräämisoikeuteen käyttäytymistä, mukaan lukien koko tekoälyn toimitusketjun hallinta?
Tulojen uudelleenjako ja kansalliset verovivutVoivatko suvereenin valtion ydinroolit vaarantua (esim. varapankit)? Edistyykö vai vähennetäänkö valtion kykyä vastata kansalaisten odotuksiin ja seurauksiin (sosiaaliset, taloudelliset, poliittiset jne.)?
Digitaalinen kuilu (tekoälykuilu)Kasvavatko nykyiset digitaaliset eriarvoisuudet vai syntyykö uusia?

Vaikutuksen ulottuvuudet: Kansalaiselämä

KriteeriEsimerkkejä siitä, kuinka tämä voi näkyä analyysissä
Hallinto ja julkinen palveluVoisiko hallintomekanismeihin ja globaaliin hallintojärjestelmään vaikuttaa myönteisesti tai negatiivisesti?
UutismediaOnko julkinen keskustelu todennäköisesti polarisoitunut ja juurtunut väestötasolla? Vaikuttaako sillä luottamustasoon neljättä kartanoa kohtaan? Vaikuttaako tavanomaisiin toimittajien etiikkaan ja rehellisyysstandardeihin entisestään?
Lain sääntöVaikuttaako tämä kykyyn tunnistaa vastuullisia henkilöitä tai organisaatioita (esim. millainen vastuu antaa algoritmille haitallisten tulosten varalta)? Menetetäänkö itsemääräämisoikeus (ympäristö, verotus, sosiaalipolitiikka, etiikka jne.)?
Politiikka ja sosiaalinen yhteenkuuluvuusOnko mahdollista saada juurtuneempia poliittisia näkemyksiä ja vähemmän mahdollisuuksia konsensuksen rakentamiseen? Onko mahdollista syrjäyttää ryhmiä edelleen? Tehdäänkö vastakkaiset politiikan tyylit enemmän tai vähemmän todennäköisiksi?
Sosiaalinen lisenssiOnko olemassa yksityisyyteen liittyviä, luottamusongelmia ja moraalisia huolenaiheita, jotka on otettava huomioon, jotta sidosryhmät hyväksyisivät käytön?
Alkuperäinen tietoVoidaanko alkuperäiskansojen tietoa ja dataa turmella tai kavaldattaa? Onko olemassa riittäviä toimenpiteitä suojautumiseksi harhaanjohtamiselta, väärältä tiedolta ja hyväksikäytöltä?
Tieteellinen järjestelmäOnko akateeminen ja tutkimuksen eheys vaarantunut? Meneekö luottamus tieteeseen? Onko olemassa väärinkäytön, liikakäytön tai väärinkäytön mahdollisuuksia? Mitä seurauksia tieteen harjoittamisesta on?

Vaikutuksen ulottuvuudet: Geostrateginen/geopoliittinen konteksti

KriteeriEsimerkkejä siitä, kuinka tämä voi näkyä analyysissä
Tarkka valvontaOnko järjestelmiä koulutettu yksittäisten käyttäytymis- ja biologisten tietojen perusteella ja voidaanko niitä käyttää yksilöiden tai ryhmien hyväksikäyttöön?
Digitaalinen kilpailuVoivatko valtiolliset tai ei-valtiolliset toimijat (esim. suuret teknologiayritykset) hyödyntää järjestelmiä ja tietoja ymmärtääkseen ja valvoakseen muiden maiden väestöä ja ekosysteemejä tai heikentääkseen lainkäyttövaltaa?
Geopoliittinen kilpailuVoisiko järjestelmä herättää kilpailua kansojen välillä yksilö- ja ryhmätietojen hyödyntämisestä taloudellisiin, lääketieteellisiin ja turvallisuustarkoituksiin?
Muutos globaaleissa voimissaOnko kansallisvaltioiden asema maailman tärkeimpinä geopoliittisina toimijoina uhattuna? Hallitsevatko teknologiayritykset valtaa, joka oli kerran varattu kansallisvaltioille, ja onko niistä tullut itsenäisiä, suvereeneja toimijoita (nouseva teknopolaarinen maailmanjärjestys)?
harhaanjohtavat tiedotHelpottaisiko järjestelmä valtion ja ei-valtiollisten toimijoiden disinformaation tuottamista ja levittämistä, mikä vaikuttaa sosiaaliseen yhteenkuuluvuuteen, luottamukseen ja demokratiaan?
KaksikäyttösovelluksetOnko mahdollista sekä sotilaskäyttöön että siviilikäyttöön?
Globaalin järjestyksen pirstaloituminenVoisiko syntyä siiloja tai sääntely- ja noudattamisklustereita, jotka haittaavat yhteistyötä, johtavat epäjohdonmukaisuuksiin soveltamisessa ja luovat tilaa konflikteille?

Vaikutusmitat: Ympäristö

KriteeriEsimerkkejä siitä, kuinka tämä voi näkyä analyysissä
Energian ja resurssien kulutus (hiilijalanjälki)Lisäävätkö järjestelmä ja vaatimukset energian ja resurssien kulutuksen käyttöä sovelluksella saavutettujen tehokkuusetujen lisäksi?
Energian lähdeMistä järjestelmän energia hankitaan (uusiutuvat vs. fossiiliset polttoaineet jne.)?

Vaikutusmitat: Tiedot ja syöttö

KriteeriEsimerkkejä siitä, kuinka tämä voi näkyä analyysissä
Ohjaus ja keräysKeräävätkö tiedot ja syötteet ihmiset, automaattiset anturit vai molemmat?
Tietojen alkuperäOvatko tiedot ja asiantuntijoiden antamat tiedot toimitettuja, havaittuja, synteettisiä vai johdettuja? Onko olemassa vesileimasuojauksia alkuperän vahvistamiseksi?
Tietojen dynaaminen luonneOvatko tiedot dynaamisia, staattisia, dynaamisia päivityksiä ajoittain vai reaaliaikaisesti?
OikeudetOvatko tiedot omistusoikeudellisia, julkisia vai henkilökohtaisia ​​(liittyvätkö tunnistettavissa oleviin henkilöihin)?
Tunnistettavuus ja henkilötiedotJos tiedot ovat henkilökohtaisia, ovatko tiedot anonymisoituja vai pseudonyymejä?
Tietojen rakenneOvatko tiedot jäsenneltyä, puolirakenteista, monimutkaista jäsenneltyä vai jäsentämätöntä?
Tietojen muotoOnko tietojen ja metatietojen muoto standardoitu vai ei-standardoitu?
Tietojen mittakaavaMikä on tietojoukon mittakaava?
Tietojen asianmukaisuus ja laatuOnko tietojoukko tarkoitukseen sopiva? Onko näytteen koko riittävä? Onko se tarpeeksi edustava ja täydellinen? Kuinka äänekkäitä tiedot ovat? Onko se virhealtista?

Iskun mitat: Malli

KriteeriEsimerkkejä siitä, kuinka tämä voi näkyä analyysissä
Tietojen saatavuusOnko tietoa järjestelmän mallista?
AI-mallin tyyppiOnko malli symbolinen (ihmisen luomat säännöt), tilastollinen (käyttää dataa) vai hybridi?
Malliin liittyvät oikeudetOnko malli avoimen lähdekoodin vai patentoitu, itse tai kolmannen osapuolen hallinnoima?
Yksi useista malleistaKoostuuko järjestelmä yhdestä mallista vai useista toisiinsa linkitetyistä malleista?
Generatiivinen tai syrjiväOnko malli generatiivinen, syrjivä vai molempia?
MallirakennusOppiiko järjestelmä ihmisten kirjoittamien sääntöjen perusteella, datasta, ohjatun oppimisen vai vahvistusoppimisen kautta?
Mallin evoluutio (AI drift)Kehittyykö malli ja/tai saako se kykyjä vuorovaikutuksessa kentän tietojen kanssa?
Yhdistetty tai keskitetty oppiminenOnko malli koulutettu keskitetysti vai useissa paikallisissa palvelimissa tai reunalaitteissa?
Kehitys/ylläpitoOnko malli universaali, muokattavissa vai räätälöity tekoälynäyttelijän dataan?
Deterministinen tai todennäköisyysKäytetäänkö mallia deterministisellä vai todennäköisyydellä?
Mallin läpinäkyvyysOnko käyttäjien saatavilla tietoa, jonka avulla he voivat ymmärtää mallin tuotoksia ja rajoituksia tai käyttää rajoituksia?
Laskennallinen rajoitusOnko järjestelmässä laskennallisia rajoituksia? Onko mahdollista ennustaa kykyhyppyjä tai skaalauslakeja?

Vaikutusmitat: Tehtävä ja tulos

KriteeriEsimerkkejä siitä, kuinka tämä voi näkyä analyysissä
Järjestelmän suorittamat tehtävätMitä tehtäviä järjestelmä suorittaa (tunnistus, tapahtuman havaitseminen, ennustaminen jne.)?
Tehtävien ja toimien yhdistäminenYhdistääkö järjestelmä useita tehtäviä ja toimia (sisällöntuotantojärjestelmät, autonomiset järjestelmät, ohjausjärjestelmät jne.)?
Järjestelmän autonomian tasoKuinka itsenäisiä järjestelmän toiminta on ja mikä rooli ihmisillä on?
Ihmisen osallistumisen asteOnko ihmisten mukana valvomassa tekoälyjärjestelmän yleistä toimintaa ja kykyä päättää, milloin ja miten tekoälyjärjestelmää käytetään missä tahansa tilanteessa?
YdinsovellusKuuluuko järjestelmä ydinsovellusalueeseen, kuten ihmiskieliteknologiaan, tietokonenäköön, automaatioon ja/tai optimointiin tai robotiikkaan?
ArviointiOnko olemassa standardeja tai menetelmiä järjestelmän tulosten arvioimiseksi?

Miten tätä kehystä voitaisiin käyttää?

Tätä kehystä voidaan käyttää monella tavalla, mukaan lukien:

  • Ylittää korkean tason periaatteiden ja sääntely- tai hallintotarkoituksiin tehtävän arvioinnin välinen kuilu. Viitekehys voi tukea tätä luomalla validoidun yhteisen taksonomian monista asioista, jotka ansaitsevat asianomaisten sidosryhmien pohdinnan pohjana tulevaisuuden ajattelulle ja muokkaamiselle. Esimerkiksi kansallisella tasolla hallitus voisi käyttää viitekehystä työkaluna, kun se kehittää kansallista tekoälystrategiaa ja politiikkoja luodakseen yhteisen perustan riskeille ja mahdollisuuksille eri sidosryhmien välillä.
  • Tiedottaa vaikutustenarvioinneille. EU:n tekoälylaki edellyttää, että järjestöt, jotka tarjoavat tekoälytyökaluja tai ottavat tekoälyä prosesseihinsa, suorittavat vaikutustenarvioinnin tunnistaakseen aloitteidensa riskit ja soveltavan asianmukaista riskinhallintatapaa. Tässä esitettyä viitekehystä voitaisiin käyttää pohjana tälle.
  • Tietoa horisonttihakulle riskeistä ja tulevaisuuden skenaarioista. YK:n tekoälyn neuvoa-antavan elimen väliraportissa6 esitetty riskien luokittelu on pitkälti linjassa tässä viitekehyksessä esitetyn kehyksen kanssa. Viitekehyksellä on mahdollisuus rakentaa konsensusta ja testata esiin tulevien riskien vakavuutta sekä ennaltaehkäistä niitä.
  • Tehostaa tekoälyn käytön ohjaamiseen ja hallitsemiseen tarvittavia eettisiä periaatteita. Viitekehys voi tehdä tämän tarjoamalla joustavan perustan, jolle voidaan kehittää luotettavia järjestelmiä ja varmistamalla teknologian laillisen, eettisen, vankan ja vastuullisen käytön. Näitä periaatteita voitaisiin testata kaikissa tässä viitekehyksessä esitettyjen vaikutusten suhteen.
  • Helpottaa olemassa olevien ja kehittyvien toimenpiteiden (sääntely-, lainsäädäntö-, politiikka-, standardi-, hallinto- jne.) kartoitusta ja tunnistaa puutteet, joita on tarkasteltava tarkemmin. Näitä voitaisiin kartoittaa kansallisen tai monikansallisen tason puiteluokkien perusteella puutteiden määrittämiseksi ja sopivien toimenpiteiden tunnistamiseksi riskien lieventämiseksi.
  • Tukea valtion tekoälyn käyttöä. Koska monet hallitukset määrittelevät omat strategiansa tekoälyn käyttöön virastoissa ja järjestelmissä, viitekehystä voitaisiin käyttää asianmukaisten riskikynnysten määrittämiseen ja tärkeimpien sidosryhmien ja vastuiden tunnistamiseen.
  • Tukea julkista keskustelua ja luoda sosiaalinen lisenssi siitä, miten tekoälyä käytetään, ja taustatietoa, jota käytetään valtion palveluissa tai laajemmin yhteiskunnassa.

Tie eteenpäin
Yhteenvetona voidaan todeta, että analyyttinen viitekehys muodostaa perustan työkalupakkaukselle, jonka avulla sidosryhmät voivat tarkastella kokonaisvaltaisesti alustojen tai käytön merkittäviä kehityskulkuja johdonmukaisesti ja järjestelmällisesti. Tässä viitekehyksessä esitetyillä ulottuvuuksilla on merkitystä teknologian arvioinnista julkiseen politiikkaan, inhimillisestä kehityksestä sosiologiaan sekä tulevaisuus- ja teknologiatutkimukseen. Vaikka tämä analyyttinen kehys on kehitetty tekoälyä varten, sitä voidaan soveltaa paljon laajemmin mihin tahansa muuhun nousevaan teknologiaan.

  • YK:n tekoälyn neuvoa-antava toimikunta. 2023. Väliraportti: Tekoälyn hallinta ihmiskunnalle. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd

Kiitokset

Sekä alkuperäisen keskusteluasiakirjan että sen julkaisun jälkeisen palautteen kehittämisessä on kuultu ja annettu palautetta useille ihmisille. Molemmat asiakirjat laati Sir Peter Gluckman, ISC:n puheenjohtaja ja Hema Sridhar, entinen Uuden-Seelannin puolustusministeriön tiedeneuvonantaja ja nykyinen vanhempi tutkija Fellow, Aucklandin yliopisto, Uusi-Seelanti.

Erityisesti ISC Lord Martin Rees, Royal Societyn entinen presidentti ja Cambridgen yliopiston eksistentiaalisten riskien tutkimuskeskuksen perustaja; Professori Shivaji Sondhi, fysiikan professori, Oxfordin yliopisto; Professori K Vijay Raghavan, Intian hallituksen entinen tieteellinen neuvonantaja; Amandeep Singh Gill, YK:n pääsihteerin teknologialähettiläs; Seán Ó hÉigeartaigh, Cambridgen yliopiston eksistentiaalisten riskien tutkimuskeskuksen pääjohtaja; Sir David Spiegelhalter, Wintonin yliopiston julkisen riskin ymmärtämisen professori
Cambridgesta; Amanda-June Brawner, vanhempi poliittinen neuvonantaja ja Ian Wiggins, kansainvälisten asioiden johtaja, Royal Society, Yhdistynyt kuningaskunta; Tohtori Jerome Duberry, toimitusjohtaja ja tohtori Marie-Laure Salles, johtaja, Geneva Graduate Institute; Chor Pharn Lee, strategisten tulevaisuuksien keskus, pääministerin kanslia, Singapore; Barend Mons ja tohtori Simon Hodson, Datakomitea (CoDATA); Professori Yuko Harayama, entinen toiminnanjohtaja, RIKEN; Professori
Rémi Quirion, toimitusjohtaja, INGSA; Tri Claire Craig, Oxfordin yliopisto ja entinen ennakointipäällikkö, valtion tiedevirasto; Professori Yoshua Bengio, YK:n pääsihteerin tieteellinen neuvottelukunta ja Université de Montréal; ja monet muut, jotka antoivat palautetta ISC:lle alkuperäisestä keskusteluasiakirjasta.


Kirjallisuutta

Kansallisten tutkimusekosysteemien valmistelu tekoälyä varten: strategiat ja edistyminen vuonna 2024

Tämä ISC:n ajatushautomo Center for Science Futures -työasiakirja tarjoaa perustietoa ja pääsyn resursseihin maista eri puolilta maailmaa eri vaiheissa tekoälyn integroinnissa tutkimusekosysteemeihinsä.


kolme tutkijaa keskustelemassa

Tulevaisuuden valmiiden tiedejärjestelmien rakentaminen globaalissa etelässä

Uudet teknologiat muokkaavat tieteen harjoittamistapaa ja tarjoavat merkittävää potentiaalia vahvistaa tiedejärjestelmiä globaalissa etelässä – jos niiden käyttöönottoa ohjaavat osallistavat, hyvin tuetut ja kontekstiherkät lähestymistavat. Tämän äskettäisen strategisen retriitin keskeisenä painopisteenä oli se, miten varmistetaan, että nämä teknologiat edistävät oikeudenmukaisempia ja kestävämpiä tiedejärjestelmiä sen sijaan, että ne vahvistaisivat olemassa olevia eriarvoisuuksia.