ISC:n opas tarjoaa kattavan viitekehyksen, joka on suunniteltu kuromaan umpeen korkean tason periaatteiden ja käytännöllisen, toimivan politiikan välillä. Se vastaa kiireelliseen yhteisymmärrykseen sekä uusien teknologioiden tarjoamista mahdollisuuksista että riskeistä. Tämä on olennainen asiakirja niille, jotka työskentelevät politiikan parissa nopeasti muuttuvalla digitaalisella aikakaudellamme.
Viitekehyksessä tutkitaan tekoälyn ja sen johdannaisten mahdollisuuksia kattavan objektiivin kautta, joka kattaa ihmisten ja yhteiskunnan hyvinvoinnin sekä ulkoiset tekijät, kuten talouden, politiikan, ympäristön ja turvallisuuden. Jotkin tarkistuslistan näkökohdat voivat olla merkityksellisempiä kuin toiset kontekstista riippuen, mutta paremmat päätökset näyttävät todennäköisemmiltä, jos kaikki alueet otetaan huomioon, vaikka jotkin voidaan nopeasti tunnistaa merkityksettömiksi tietyissä tapauksissa. Tämä on tarkistuslistalähestymistavan luontainen arvo.
”Nopeiden teknologisten innovaatioiden ja monimutkaisten globaalien haasteiden aikakaudella ISC:n kehys mahdollisten vaikutusten kattavalle ja moniulotteiselle analyysille antaa johtajille mahdollisuuden tehdä tietoisia ja vastuullisia päätöksiä. Se varmistaa, että edistyessämme teknologisesti harkitsemme huolellisesti eettiset, sosiaaliset ja taloudelliset vaikutukset."
Peter Gluckman, ISC:n puheenjohtaja
Vaikka muun muassa Unesco, OECD, Euroopan komissio ja YK ovat julistaneet korkean tason periaatteita ja keskusteluja mahdollisista hallinto-, sääntely-, etiikka- ja turvallisuuskysymyksistä jatkuvat, tällaisten periaatteiden ja periaatteiden välillä on suuri ero. hallintoa tai sääntelykehystä. ISC vastaa tähän tarpeeseen uudella poliittisille päättäjille tarkoitetulla oppaallaan.
Tämän poliittisten päättäjien oppaan tarkoituksena ei ole kieltää sääntelyjärjestelmää, vaan pikemminkin ehdottaa mukautuvaa ja kehittyvää analyyttistä kehystä, joka voisi tukea kaikkia sidosryhmien, mukaan lukien hallitukset ja monenkeskinen järjestelmä, mahdollisesti kehittämiä arviointi- ja sääntelyprosesseja.
"Kehys on kriittinen askel maailmanlaajuisessa keskustelussa tekoälystä, koska se tarjoaa perustan, jolle voimme rakentaa yksimielisyyttä teknologian vaikutuksista nyt ja tulevaisuudessa."
Hema Sridhar, entinen tieteellinen pääneuvonantaja Uuden-Seelannin puolustusministeriössä ja nykyinen vanhempi tutkija Fellow, Aucklandin yliopisto, Uusi-Seelanti.
Lokakuusta 2023 lähtien on tehty useita merkittäviä kansallisia ja monenvälisiä aloitteita, joissa on pohdittu edelleen tekoälyn etiikkaa ja turvallisuutta. Tekoälyn vaikutukset joidenkin kriittisten järjestelmien eheyteen, mukaan lukien rahoitus-, hallinto-, laki- ja koulutusjärjestelmät, sekä erilaiset tietojärjestelmät (mukaan lukien tieteellinen ja kotimainen tieto) ovat yhä huolestuttavia. Kehys heijastaa edelleen näitä näkökohtia.
ISC:n jäseniltä ja kansainväliseltä päätöksentekoyhteisöltä tähän mennessä saatu palaute näkyy analyyttisen viitekehyksen uudistetussa versiossa, joka on nyt julkaistu oppaana päättäjille.
Opas poliittisille päättäjille: Nopeasti kehittyvien teknologioiden arviointi, mukaan lukien tekoäly, suuret kielimallit ja muut
Tämä keskusteluasiakirja tarjoaa ääriviivat alustavalle viitekehykselle, joka antaa tietoa monista tekoälyyn liittyvistä maailmanlaajuisista ja kansallisista keskusteluista.
Lataa kehys käytettäväksi organisaatiossasi
Tässä tarjoamme kehystyökalun muokattavana Excel-arkina käytettäväksi organisaatiossasi. Jos pidät avoimen lähdekoodin muodossa, ota yhteyttä [sähköposti suojattu].
esittely
Nopeasti syntyvä teknologia tuo haasteita niiden käytön, hallinnan ja mahdollisen sääntelyn suhteen. Meneillään oleva tekoälyä (AI) ja sen käyttöä koskeva politiikka ja julkinen keskustelu ovat nostaneet nämä kysymykset akuuttiin. Unesco, OECD, YK ja muut, mukaan lukien Yhdistyneen kuningaskunnan Bletchley-julistus, ovat ilmoittaneet tekoälyn laajoista periaatteista, ja uusia lainkäyttövaltaisia yrityksiä on säännellä teknologian näkökohtia esimerkiksi Euroopan unionin (EU) tekoälyn kautta. laki tai äskettäinen Yhdysvaltain tekoälyn toimeenpanomääräys.
Vaikka tekoälyn käytöstä keskustellaan pitkään näillä ja muilla foorumeilla, geopoliittisten jakojen yli ja kaikissa tulotasoissa olevissa maissa, korkean tason periaatteiden kehittämisen ja niiden käytännön soveltamisen välillä on edelleen ontologinen kuilu joko sääntelyn, politiikan tai hallinnon kautta. tai taloudenhoito lähestymistapoja. Polku periaatteesta käytäntöön on huonosti määritelty, mutta tekoälyn kehityksen ja sovellusten luonteen ja taajuuden, kiinnostuksen kohteiden vaihtelevuuden ja mahdollisten sovellusten kirjo huomioon ottaen mikään lähestymistapa ei voi olla liian yleinen tai ohjeellinen.
Näistä syistä valtiosta riippumattomalla tiedeyhteisöllä on edelleen erityinen rooli. Kansainvälinen tiedeneuvosto (ISC) – sen moniarvoinen yhteiskunta- ja luonnontieteiden jäsenistö – julkaisi lokakuussa 2023 keskustelupaperin, jossa esiteltiin alustava analyyttinen viitekehys, jossa pohdittiin nopeasti muuttuvaan digitaaliteknologiaan liittyviä riskejä, etuja, uhkia ja mahdollisuuksia. Vaikka se kehitettiin tekoälyn huomioon ottamiseksi, se on luonnostaan teknologiaagnostikko, ja sitä voidaan soveltaa useisiin nouseviin ja häiritseviin teknologioihin, kuten synteettiseen biologiaan ja kvanttiin. Tämä keskusteluasiakirja pyysi palautetta tutkijoilta ja poliittisista päättäjistä. Valtava palaute teki tällaisen analyysin suorittamisen tarpeelliseksi ja oli arvokas lähestymistapa uusiin teknologioihin, kuten tekoälyyn.
Kehyksen tarkoituksena on tarjota työkalu, jolla tiedotetaan kaikille sidosryhmille – mukaan lukien hallitukset, kauppaneuvottelijat, sääntelijät, kansalaisyhteiskunta ja teollisuus – näiden tekniikoiden kehityksestä, jotta he voivat arvioida, miten ne voivat pohtia tekniikan positiivisia tai kielteisiä vaikutuksia. itse tekniikka ja erityisesti sen tietty sovellus. Tämä analyyttinen viitekehys on kehitetty hallituksen ja teollisuuden eduista riippumatta. Se on näkökulmiltaan mahdollisimman moniarvoinen, ja se kattaa kaikki teknologian osa-alueet ja sen vaikutukset laajan kuulemisen ja palautteen perusteella.
Tämän poliittisille päättäjille tarkoitetun keskusteluasiakirjan tarkoituksena ei ole kieltää sääntelyjärjestelmää, vaan pikemminkin ehdottaa mukautuvaa ja kehittyvää analyyttistä kehystä, joka voisi tukea kaikkia arviointi- ja sääntelyprosesseja, joita sidosryhmät, mukaan lukien hallitukset ja monenvälinen järjestelmä, voivat kehittää.
Koska päättäjät maailmanlaajuisesti ja kansallisesti harkitsevat asianmukaisia politiikan asetuksia ja keinoja tasapainottaakseen uuden teknologian, kuten tekoälyn, riskit ja hyödyt, analyyttinen viitekehys on tarkoitettu täydentäväksi työkaluksi, jolla varmistetaan, että kaikki mahdolliset vaikutukset otetaan asianmukaisesti huomioon.
Taustaa: miksi analyyttinen viitekehys?
Tekoälyn monimutkaisuus ja seuraukset sisältävät teknologioiden nopean ilmaantumisen saa aikaan monia suuria hyötyjä koskevia väitteitä. Se kuitenkin herättää myös pelkoa merkittävistä riskeistä yksilötasolta geostrategiseen tasoon.1 Suuri osa tähänastisesta keskustelusta on pidetty binaarisessa mielessä, koska julkisesti ilmaistut näkemykset tapahtuvat yleensä spektrin ääripäissä. Tekoälyn puolesta tai sitä vastaan esitetyt väitteet ovat usein hyperbolisia ja – tekniikan luonteen vuoksi – vaikeita arvioida.
Pragmaattisempi lähestymistapa on tarpeen, kun hyperboli korvataan kalibroiduilla ja rakeisemmilla arvioinneilla. Tekoälyteknologia kehittyy edelleen, ja historia osoittaa, että käytännössä jokaisella tekniikalla on sekä hyödyllisiä että haitallisia käyttötarkoituksia. Kysymys kuuluukin: kuinka voimme saavuttaa tämän tekniikan hyödyllisiä tuloksia samalla kun vähennämme haitallisten seurausten riskiä, joista osa voi olla laajuudeltaan eksistentiaalista?
Tulevaisuus on aina epävarma, mutta tekoälystä ja generatiivisesta tekoälystä on riittävästi uskottavia ja asiantuntevia ääniä, jotka kannustavat suhteellisen varovaiseen lähestymistapaan. Lisäksi järjestelmällinen lähestymistapa on välttämätön, koska tekoäly on teknologioiden luokka, jota käyttävät ja soveltavat laajasti monenlaiset käyttäjät. Tämä tarkoittaa, että koko konteksti on otettava huomioon, kun tarkastellaan tekoälyn käytön vaikutuksia yksilöihin, sosiaaliseen elämään, kansalaiselämään, yhteiskunnalliseen elämään ja globaalissa kontekstissa.
Toisin kuin useimmissa muissa teknologioissa, digitaalisten ja niihin liittyvien teknologioiden osalta kehitys, julkaisu ja soveltaminen on erittäin lyhyt aika, mikä johtuu suurelta osin tuotantoyhtiöiden tai virastojen eduista. Luonteeltaan – ja koska se perustuu digitaaliseen runkoon – tekoälyllä on sovelluksia, jotka leviävät nopeasti, kuten on jo nähty suurten kielimallien kehittämisessä. Tämän seurauksena jotkin ominaisuudet saattavat tulla ilmi vasta vapautumisen jälkeen, mikä tarkoittaa, että on olemassa odottamattomien seurausten riski, sekä pahantahtoisten että hyväntahtoisten.
Tärkeät yhteiskunnalliset arvot, erityisesti eri alueilla ja kulttuureissa, vaikuttavat siihen, miten mikä tahansa käyttö koetaan ja hyväksytään. Lisäksi geostrategiset intressit hallitsevat jo nyt keskustelua, kun suvereenit ja monenväliset intressit leikkaavat jatkuvasti ja johtavat siten kilpailuun ja jakautumiseen.
Tähän mennessä suuri osa virtuaaliteknologian sääntelystä on nähty suurelta osin "periaatteiden" ja vapaaehtoisen noudattamisen linssin läpi, vaikkakin EU:n tekoälylain kanssa.2 ja vastaavia, näemme siirtymisen täytäntöönpanokelpoisempiin mutta hieman kapeampiin säännöksiin. Tehokkaan maailmanlaajuisen tai kansallisen teknologian hallinto- ja/tai sääntelyjärjestelmän luominen on edelleen haastavaa, eikä siihen ole selvää ratkaisua. Ketjun varrella tarvitaan useita riskitietoisen päätöksenteon tasoja keksijältä tuottajalle, käyttäjälle, hallitukselle ja monenväliseen järjestelmään.
Vaikka muun muassa Unesco, OECD, Euroopan komissio ja YK ovat julistaneet korkean tason periaatteita, ja korkean tason keskusteluja jatketaan mahdollisista hallinto-, sääntely-, etiikka- ja turvallisuuskysymyksistä, niiden välillä on suuri kuilu. periaatteita ja hallinto- tai sääntelykehystä. Tähän on puututtava.
ISC harkitsee lähtökohtana sellaisen näkemysten taksonomian kehittämistä, johon kuka tahansa kehittäjä, sääntelijä, poliittinen neuvonantaja, kuluttaja tai päätöksentekijä voisi viitata. Kun otetaan huomioon näiden teknologioiden laajat vaikutukset, tällaisessa taksonomiassa on otettava huomioon seurausten kokonaisuus pikemminkin kuin kapea-alainen kehystys. Maailmanlaajuinen pirstoutuminen lisääntyy, koska geostrategiset intressit vaikuttavat päätöksentekoon, ja tämän tekniikan kiireellisyyden vuoksi on välttämätöntä, että riippumattomat ja neutraalit äänet kannattavat jatkuvasti yhtenäistä ja osallistavaa lähestymistapaa.
1) Hindustan Times. 2023. G20:n on perustettava kansainvälinen teknologisia muutoksia käsittelevä paneeli.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) EU:n tekoälylaki. 2023. https://artificialintelligenceact.eu
Analyyttisen viitekehyksen kehittäminen
ISC on tärkein maailmanlaajuinen valtiosta riippumaton järjestö, joka yhdistää luonnon- ja yhteiskuntatieteet. Sen maailmanlaajuinen ja kurinalainen ulottuvuus tarkoittaa, että sillä on hyvät mahdollisuudet tuottaa riippumattomia ja maailmanlaajuisesti olennaisia neuvoja edessä olevien monimutkaisten valintojen tekemiseksi, varsinkin kun tällä areenalla äänet tulevat suurelta osin teollisuudesta tai suurten teknologiavaltojen poliittisista ja poliittisista yhteisöistä.
Laajan keskustelun jakson jälkeen, johon sisältyi valtiosta riippumattoman arviointiprosessin harkitseminen, ISC totesi, että sen hyödyllisin panos olisi tuottaa mukautuva analyyttinen viitekehys, jota kaikki voivat käyttää keskustelun ja päätöksenteon perustana. sidosryhmiä, myös mahdollisten virallisten arviointiprosessien aikana.
Alustava analyyttinen viitekehys, joka julkaistiin keskustelua ja palautetta varten lokakuussa 2023, muodosti kattavan tarkistuslistan, joka on suunniteltu sekä valtion että kansalaisjärjestöjen käyttöön. Viitekehyksessä tunnistettiin ja tutkittiin tekoälyn ja sen johdannaisten kaltaisen teknologian potentiaalia laajan objektiivin kautta, joka kattaa ihmisten ja yhteiskunnan hyvinvoinnin sekä ulkoiset tekijät, kuten talouden, politiikan, ympäristön ja turvallisuuden. Jotkin tarkistuslistan näkökohdat voivat olla merkityksellisempiä kuin toiset kontekstista riippuen, mutta paremmat päätökset näyttävät todennäköisemmiltä, jos kaikki alueet otetaan huomioon, vaikka jotkin voidaan nopeasti tunnistaa merkityksettömiksi tietyissä tapauksissa. Tämä on tarkistuslistalähestymistavan luontainen arvo.
Alustava viitekehys on johdettu aikaisemmasta työstä ja ajattelusta, mukaan lukien Kansainvälisen valtion tieteellisen neuvonnan verkoston (INGSA) raportti digitaalisesta hyvinvoinnista3 ja OECD Framework for the Classification of AI Systems,4 esittääkseen kokonaisuuden mahdollisista mahdollisuuksista, riskeistä ja vaikutuksista. AI:sta. Näiden aikaisempien tuotteiden tarkoitus oli rajoitetumpi aikansa ja kontekstinsa vuoksi. tarvitaan kattava viitekehys, joka kattaa kaikki ongelmat sekä lyhyellä että pitkällä aikavälillä.
Julkaisunsa jälkeen keskustelupaperi on saanut merkittävää tukea monilta asiantuntijoilta ja päättäjiltä. Monet ovat erityisesti kannattaneet suositusta kehittää mukautuva viitekehys, joka mahdollistaa tietoisen ja ennakoivan teknologian riskien ja seurausten huomioimisen ja ottaa näin tehdessään aina huomioon kokonaisuuden yksilöstä yhteiskuntaan ja järjestelmiin.
Yksi palautteen kautta tehty keskeinen havainto oli sen tunnustaminen, että useat viitekehyksessä käsitellyt vaikutukset ovat luonnostaan monitahoisia ja ulottuvat useisiin luokkiin. Esimerkiksi disinformaatiota voitaisiin tarkastella sekä yksilöllisen että geostrategisen objektiivin näkökulmasta; näin ollen seuraukset olisivat laajat.
Ehdotettiin myös mahdollisuutta sisällyttää tapaustutkimuksia tai esimerkkejä kehyksen testaamiseen. Tätä voitaisiin käyttää ohjeiden laatimiseen, joilla havainnollistetaan, kuinka sitä voitaisiin käyttää käytännössä eri yhteyksissä. Tämä olisi kuitenkin merkittävä hanke ja saattaa rajoittaa sitä, miten eri ryhmät kokevat tämän kehyksen käytön. Sen tekevät parhaiten päättäjät, jotka työskentelevät asiantuntijoiden kanssa tietyillä lainkäyttöalueilla tai yhteyksissä.
Lokakuusta 2023 lähtien on tehty useita merkittäviä kansallisia ja monenvälisiä aloitteita, joissa on pohdittu edelleen tekoälyn etiikkaa ja turvallisuutta. Tekoälyn vaikutukset joidenkin kriittisten järjestelmien eheyteen, mukaan lukien rahoitus-, hallinto-, laki- ja koulutusjärjestelmät, sekä erilaiset tietojärjestelmät (mukaan lukien tieteellinen ja kotimainen tieto) ovat yhä huolestuttavia. Tarkistettu kehys heijastaa edelleen näitä näkökohtia.
Tähän mennessä saatu palaute näkyy analyyttisen viitekehyksen uudistetussa versiossa, joka on nyt julkaistu oppaana poliittisille päättäjille.
Vaikka viitekehys esitetään tekoälyn ja siihen liittyvien teknologioiden kontekstissa, se on välittömästi siirrettävissä muihin nopeasti kehittyviin teknologioihin, kuten kvantti- ja synteettiseen biologiaan.
3) Gluckman, P. ja Allen, K. 2018. Hyvinvoinnin ymmärtäminen nopeiden digitaalisten ja siihen liittyvien muutosten kontekstissa. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OECD. 2022. OECD Framework for the Classification of AI systems. OECD Digital Economy Papers, nro 323, #. Paris, OECD Publishing.
https://oecd.ai/en/classificatio
Viitekehys
Seuraavassa taulukossa esitetään oletetun analyyttisen viitekehyksen mitat. Esimerkkejä tarjotaan havainnollistamaan, miksi kukin verkkoalue voi olla tärkeä; Tässä yhteydessä kehys vaatisi asiayhteyteen liittyvää laajennusta. On myös tärkeää erottaa yleiset ongelmat, joita syntyy alustan kehittämisen aikana, ja ne, jotka voivat ilmaantua tiettyjen sovellusten aikana. Mitään yksittäistä tähän sisällytettyä näkökohtaa ei pitäisi pitää prioriteettina, ja siksi kaikkia olisi tarkasteltava.
Ongelmat on ryhmitelty laajasti seuraaviin luokkiin alla kuvatulla tavalla:
Taulukossa kerrotaan mitoista, jotka on ehkä otettava huomioon uutta tekniikkaa arvioitaessa.
– INGSA. 2018. Hyvinvoinnin ymmärtäminen nopean digitaalisen muutoksen ja siihen liittyvien muutosten kontekstissa.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
– Uudet kuvaajat (hankittu laajan kuulemisen, palautteen ja kirjallisuuskatsauksen kautta)
– OECD:n tekoälyjärjestelmien luokittelukehys: työkalu tehokkaille tekoälypolitiikoille.
https://oecd.ai/en/classification
| Kriteeri | Esimerkkejä siitä, kuinka tämä voi näkyä analyysissä |
| Käyttäjien AI-kompetenssi | Kuinka päteviä ja tietoisia järjestelmän ominaisuuksista ovat todennäköiset käyttäjät, jotka ovat vuorovaikutuksessa järjestelmän kanssa? Miten heille toimitetaan asiaankuuluvat käyttäjätiedot ja varoitukset? |
| Vaikutuksen kohteena oleva sidosryhmä | Ketkä ovat tärkeimmät sidosryhmät, joihin järjestelmä vaikuttaa (yksityishenkilöt, yhteisöt, heikossa asemassa olevat, sektorin työntekijät, lapset, päättäjät, ammattilaiset jne.)? |
| valinnaisuus | Onko käyttäjille mahdollisuus kieltäytyä järjestelmästä vai tarjotaanko heille mahdollisuuksia haastaa tai korjata tulos? |
| Ihmisoikeuksiin ja demokraattisiin arvoihin kohdistuvat riskit | Vaikuttaako järjestelmä olennaisesti ihmisoikeuksiin, mukaan lukien mutta ei rajoittuen yksityisyyteen, sananvapauteen, oikeudenmukaisuuteen, syrjimättömyyteen jne.? |
| Mahdolliset vaikutukset ihmisten hyvinvointiin | Liittyvätkö järjestelmän vaikutusalueet yksittäisen käyttäjän hyvinvointiin (työn laatu, koulutus, sosiaalinen vuorovaikutus, mielenterveys, identiteetti, ympäristö jne.)? |
| Mahdollisuus ihmisten työvoiman siirtymiseen | Onko järjestelmällä mahdollisuuksia automatisoida ihmisten suorittamia tehtäviä tai toimintoja? Jos on, mitkä ovat loppupään seuraukset? |
| Mahdollisuus identiteetin, arvojen tai tiedon manipulointiin | Onko järjestelmä suunniteltu tai mahdollisesti kykenevä manipuloimaan käyttäjän identiteettiä tai asettaa arvoja tai levittää disinformaatiota? |
| Mahdollisuuksia itseilmaisuun ja itsensä toteuttamiseen | Onko olemassa keinotekoisuutta ja itsevarmuutta? Onko mahdollista väärää tai todentamattomia asiantuntemusta koskevia väitteitä? |
| Itsearvon mittarit | Onko paineita esittää idealisoitua itseään? Voisiko automaatio korvata tunteen henkilökohtaisesta täyttymyksestä? Onko paineita kilpailla järjestelmän kanssa työpaikka? Onko yksilön mainetta vaikeampi suojata disinformaatiolta? |
| yksityisyys | Onko yksityisyyden turvaamiseen hajautettu vastuu ja onko niitä olemassa oletuksia siitä, miten henkilötietoja käytetään? |
| Autonomia | Voisiko tekoälyjärjestelmä vaikuttaa ihmisen autonomiaan luomalla liiallista riippuvuutta? loppukäyttäjät? |
| Ihmisen kehittyminen | Onko vaikutusta ihmisen kehityksen avaintaitojen hankkimiseen, esim toimeenpanotoimintoja tai ihmissuhdetaitoja tai huomioimiseen vaikuttavia muutoksia oppiminen, persoonallisuuden kehitys, mielenterveyshuolet jne.? |
| Henkilökohtainen terveydenhoito | Onko väitteitä itsediagnoosista tai yksilöllisistä terveydenhuoltoratkaisuista? Jos niin, onko ne validoitu viranomaisstandardien mukaisesti? |
| Henkinen terveys | Onko olemassa lisääntynyttä ahdistuneisuutta, yksinäisyyttä tai muita mielenterveysongelmia, tai voiko tekniikka lieventää tällaisia vaikutuksia? |
| Ihmisen evoluutio | Voisiko suuret kielimallit ja yleinen tekoäly muuttaa ihmisen evoluution kulku? |
| Ihmisen ja koneen vuorovaikutus | Voisiko käyttö johtaa ajan mittaan yksilöiden osaamisen heikkenemiseen ja riippuvuuteen? Are onko vaikutusta ihmisten väliseen vuorovaikutukseen? |
| Kriteeri | Esimerkkejä siitä, kuinka tämä voi näkyä analyysissä |
| Yhteiskunnalliset arvot | Muuttaako järjestelmä perusteellisesti yhteiskunnan luonnetta, mahdollistaako aiemmin epäsosiaalisina pidettyjen ajatusten normalisoinnin vai rikkooko se sen kulttuurin yhteiskunnallisia arvoja, jossa sitä sovelletaan? |
| Sosiaalinen vuorovaikutus | Onko sillä vaikutusta mielekkääseen ihmiskontaktiin, mukaan lukien tunnesuhteet? |
| Väestön terveys | Onko järjestelmällä potentiaalia edistää tai heikentää väestön terveydellisiä aikomuksia? |
| Kulttuurinen ilmaisu | Onko kulttuurisen omaisuuden tai syrjinnän lisääntyminen todennäköistä tai vaikeampaa käsitellä? Syrjäyttääkö tai marginalisoiko päätöksentekojärjestelmään riippuvuus kulttuurisesti merkitykselliset yhteiskunnan osasiteet? |
| Julkinen koulutus | Onko sillä vaikutusta opettajan rooleihin tai oppilaitoksiin? Korostaako vai vähentääkö järjestelmä opiskelijoiden digitaalista kuilua ja eriarvoisuutta? Onko tiedon tai kriittisen ymmärryksen sisäinen arvo kehittynyt vai heikentynyt? |
| Vääristynyt todellisuus | Ovatko menetelmät, joita käytetään todellisuuden havaitsemiseen, edelleen? Onko todellisuuden käsitys vaarantunut? |
| Kriteeri | Esimerkkejä siitä, kuinka tämä voi näkyä analyysissä |
| Teollisuus | Millä teollisuudenalalla järjestelmä on käytössä (rahoitus, maatalous, terveydenhuolto, koulutus, puolustus jne.)? |
| Bisnesmalli | Missä liiketoimintatoiminnossa järjestelmää käytetään ja missä ominaisuudessa? Missä järjestelmää käytetään (yksityinen, julkinen, voittoa tavoittelematon)? |
| Vaikutukset kriittisiin toimintoihin | Vaikuttaako järjestelmän toiminnan tai toiminnan häiriö keskeisiin palveluihin tai kriittisiin infrastruktuureihin? |
| Käyttöönoton laajuus | Miten järjestelmä on otettu käyttöön (kapea käyttö yksikön sisällä vs. laajalle levinnyt kansallinen/kansainvälinen)? |
| Tekninen kypsyys | Kuinka teknisesti kypsä järjestelmä on? |
| Interoperability | Onko olemassa todennäköisesti kansallisia tai maailmanlaajuisia siiloita, jotka estävät vapaakauppaa ja vaikuttavat yhteistyöhön kumppanien kanssa? |
| Teknologinen itsemääräämisoikeus | Ohjaako halu teknologiseen itsemääräämisoikeuteen käyttäytymistä, mukaan lukien koko tekoälyn toimitusketjun hallinta? |
| Tulojen uudelleenjako ja kansalliset verovivut | Voivatko suvereenin valtion ydinroolit vaarantua (esim. varapankit)? Edistyykö vai vähennetäänkö valtion kykyä vastata kansalaisten odotuksiin ja seurauksiin (sosiaaliset, taloudelliset, poliittiset jne.)? |
| Digitaalinen kuilu (tekoälykuilu) | Kasvavatko nykyiset digitaaliset eriarvoisuudet vai syntyykö uusia? |
| Kriteeri | Esimerkkejä siitä, kuinka tämä voi näkyä analyysissä |
| Hallinto ja julkinen palvelu | Voisiko hallintomekanismeihin ja globaaliin hallintojärjestelmään vaikuttaa myönteisesti tai negatiivisesti? |
| Uutismedia | Onko julkinen keskustelu todennäköisesti polarisoitunut ja juurtunut väestötasolla? Vaikuttaako sillä luottamustasoon neljättä kartanoa kohtaan? Vaikuttaako tavanomaisiin toimittajien etiikkaan ja rehellisyysstandardeihin entisestään? |
| Lain sääntö | Vaikuttaako tämä kykyyn tunnistaa vastuullisia henkilöitä tai organisaatioita (esim. millainen vastuu antaa algoritmille haitallisten tulosten varalta)? Menetetäänkö itsemääräämisoikeus (ympäristö, verotus, sosiaalipolitiikka, etiikka jne.)? |
| Politiikka ja sosiaalinen yhteenkuuluvuus | Onko mahdollista saada juurtuneempia poliittisia näkemyksiä ja vähemmän mahdollisuuksia konsensuksen rakentamiseen? Onko mahdollista syrjäyttää ryhmiä edelleen? Tehdäänkö vastakkaiset politiikan tyylit enemmän tai vähemmän todennäköisiksi? |
| Sosiaalinen lisenssi | Onko olemassa yksityisyyteen liittyviä, luottamusongelmia ja moraalisia huolenaiheita, jotka on otettava huomioon, jotta sidosryhmät hyväksyisivät käytön? |
| Alkuperäinen tieto | Voidaanko alkuperäiskansojen tietoa ja dataa turmella tai kavaldattaa? Onko olemassa riittäviä toimenpiteitä suojautumiseksi harhaanjohtamiselta, väärältä tiedolta ja hyväksikäytöltä? |
| Tieteellinen järjestelmä | Onko akateeminen ja tutkimuksen eheys vaarantunut? Meneekö luottamus tieteeseen? Onko olemassa väärinkäytön, liikakäytön tai väärinkäytön mahdollisuuksia? Mitä seurauksia tieteen harjoittamisesta on? |
| Kriteeri | Esimerkkejä siitä, kuinka tämä voi näkyä analyysissä |
| Tarkka valvonta | Onko järjestelmiä koulutettu yksittäisten käyttäytymis- ja biologisten tietojen perusteella ja voidaanko niitä käyttää yksilöiden tai ryhmien hyväksikäyttöön? |
| Digitaalinen kilpailu | Voivatko valtiolliset tai ei-valtiolliset toimijat (esim. suuret teknologiayritykset) hyödyntää järjestelmiä ja tietoja ymmärtääkseen ja valvoakseen muiden maiden väestöä ja ekosysteemejä tai heikentääkseen lainkäyttövaltaa? |
| Geopoliittinen kilpailu | Voisiko järjestelmä herättää kilpailua kansojen välillä yksilö- ja ryhmätietojen hyödyntämisestä taloudellisiin, lääketieteellisiin ja turvallisuustarkoituksiin? |
| Muutos globaaleissa voimissa | Onko kansallisvaltioiden asema maailman tärkeimpinä geopoliittisina toimijoina uhattuna? Hallitsevatko teknologiayritykset valtaa, joka oli kerran varattu kansallisvaltioille, ja onko niistä tullut itsenäisiä, suvereeneja toimijoita (nouseva teknopolaarinen maailmanjärjestys)? |
| harhaanjohtavat tiedot | Helpottaisiko järjestelmä valtion ja ei-valtiollisten toimijoiden disinformaation tuottamista ja levittämistä, mikä vaikuttaa sosiaaliseen yhteenkuuluvuuteen, luottamukseen ja demokratiaan? |
| Kaksikäyttösovellukset | Onko mahdollista sekä sotilaskäyttöön että siviilikäyttöön? |
| Globaalin järjestyksen pirstaloituminen | Voisiko syntyä siiloja tai sääntely- ja noudattamisklustereita, jotka haittaavat yhteistyötä, johtavat epäjohdonmukaisuuksiin soveltamisessa ja luovat tilaa konflikteille? |
| Kriteeri | Esimerkkejä siitä, kuinka tämä voi näkyä analyysissä |
| Energian ja resurssien kulutus (hiilijalanjälki) | Lisäävätkö järjestelmä ja vaatimukset energian ja resurssien kulutuksen käyttöä sovelluksella saavutettujen tehokkuusetujen lisäksi? |
| Energian lähde | Mistä järjestelmän energia hankitaan (uusiutuvat vs. fossiiliset polttoaineet jne.)? |
| Kriteeri | Esimerkkejä siitä, kuinka tämä voi näkyä analyysissä |
| Ohjaus ja keräys | Keräävätkö tiedot ja syötteet ihmiset, automaattiset anturit vai molemmat? |
| Tietojen alkuperä | Ovatko tiedot ja asiantuntijoiden antamat tiedot toimitettuja, havaittuja, synteettisiä vai johdettuja? Onko olemassa vesileimasuojauksia alkuperän vahvistamiseksi? |
| Tietojen dynaaminen luonne | Ovatko tiedot dynaamisia, staattisia, dynaamisia päivityksiä ajoittain vai reaaliaikaisesti? |
| Oikeudet | Ovatko tiedot omistusoikeudellisia, julkisia vai henkilökohtaisia (liittyvätkö tunnistettavissa oleviin henkilöihin)? |
| Tunnistettavuus ja henkilötiedot | Jos tiedot ovat henkilökohtaisia, ovatko tiedot anonymisoituja vai pseudonyymejä? |
| Tietojen rakenne | Ovatko tiedot jäsenneltyä, puolirakenteista, monimutkaista jäsenneltyä vai jäsentämätöntä? |
| Tietojen muoto | Onko tietojen ja metatietojen muoto standardoitu vai ei-standardoitu? |
| Tietojen mittakaava | Mikä on tietojoukon mittakaava? |
| Tietojen asianmukaisuus ja laatu | Onko tietojoukko tarkoitukseen sopiva? Onko näytteen koko riittävä? Onko se tarpeeksi edustava ja täydellinen? Kuinka äänekkäitä tiedot ovat? Onko se virhealtista? |
| Kriteeri | Esimerkkejä siitä, kuinka tämä voi näkyä analyysissä |
| Tietojen saatavuus | Onko tietoa järjestelmän mallista? |
| AI-mallin tyyppi | Onko malli symbolinen (ihmisen luomat säännöt), tilastollinen (käyttää dataa) vai hybridi? |
| Malliin liittyvät oikeudet | Onko malli avoimen lähdekoodin vai patentoitu, itse tai kolmannen osapuolen hallinnoima? |
| Yksi useista malleista | Koostuuko järjestelmä yhdestä mallista vai useista toisiinsa linkitetyistä malleista? |
| Generatiivinen tai syrjivä | Onko malli generatiivinen, syrjivä vai molempia? |
| Mallirakennus | Oppiiko järjestelmä ihmisten kirjoittamien sääntöjen perusteella, datasta, ohjatun oppimisen vai vahvistusoppimisen kautta? |
| Mallin evoluutio (AI drift) | Kehittyykö malli ja/tai saako se kykyjä vuorovaikutuksessa kentän tietojen kanssa? |
| Yhdistetty tai keskitetty oppiminen | Onko malli koulutettu keskitetysti vai useissa paikallisissa palvelimissa tai reunalaitteissa? |
| Kehitys/ylläpito | Onko malli universaali, muokattavissa vai räätälöity tekoälynäyttelijän dataan? |
| Deterministinen tai todennäköisyys | Käytetäänkö mallia deterministisellä vai todennäköisyydellä? |
| Mallin läpinäkyvyys | Onko käyttäjien saatavilla tietoa, jonka avulla he voivat ymmärtää mallin tuotoksia ja rajoituksia tai käyttää rajoituksia? |
| Laskennallinen rajoitus | Onko järjestelmässä laskennallisia rajoituksia? Onko mahdollista ennustaa kykyhyppyjä tai skaalauslakeja? |
| Kriteeri | Esimerkkejä siitä, kuinka tämä voi näkyä analyysissä |
| Järjestelmän suorittamat tehtävät | Mitä tehtäviä järjestelmä suorittaa (tunnistus, tapahtuman havaitseminen, ennustaminen jne.)? |
| Tehtävien ja toimien yhdistäminen | Yhdistääkö järjestelmä useita tehtäviä ja toimia (sisällöntuotantojärjestelmät, autonomiset järjestelmät, ohjausjärjestelmät jne.)? |
| Järjestelmän autonomian taso | Kuinka itsenäisiä järjestelmän toiminta on ja mikä rooli ihmisillä on? |
| Ihmisen osallistumisen aste | Onko ihmisten mukana valvomassa tekoälyjärjestelmän yleistä toimintaa ja kykyä päättää, milloin ja miten tekoälyjärjestelmää käytetään missä tahansa tilanteessa? |
| Ydinsovellus | Kuuluuko järjestelmä ydinsovellusalueeseen, kuten ihmiskieliteknologiaan, tietokonenäköön, automaatioon ja/tai optimointiin tai robotiikkaan? |
| Arviointi | Onko olemassa standardeja tai menetelmiä järjestelmän tulosten arvioimiseksi? |
Miten tätä kehystä voitaisiin käyttää?
Tätä kehystä voidaan käyttää monella tavalla, mukaan lukien:
Tie eteenpäin
Yhteenvetona voidaan todeta, että analyyttinen viitekehys muodostaa perustan työkalupakkaukselle, jonka avulla sidosryhmät voivat tarkastella kokonaisvaltaisesti alustojen tai käytön merkittäviä kehityskulkuja johdonmukaisesti ja järjestelmällisesti. Tässä viitekehyksessä esitetyillä ulottuvuuksilla on merkitystä teknologian arvioinnista julkiseen politiikkaan, inhimillisestä kehityksestä sosiologiaan sekä tulevaisuus- ja teknologiatutkimukseen. Vaikka tämä analyyttinen kehys on kehitetty tekoälyä varten, sitä voidaan soveltaa paljon laajemmin mihin tahansa muuhun nousevaan teknologiaan.
Kiitokset
Sekä alkuperäisen keskusteluasiakirjan että sen julkaisun jälkeisen palautteen kehittämisessä on kuultu ja annettu palautetta useille ihmisille. Molemmat asiakirjat laati Sir Peter Gluckman, ISC:n puheenjohtaja ja Hema Sridhar, entinen Uuden-Seelannin puolustusministeriön tiedeneuvonantaja ja nykyinen vanhempi tutkija Fellow, Aucklandin yliopisto, Uusi-Seelanti.
Erityisesti ISC Lord Martin Rees, Royal Societyn entinen presidentti ja Cambridgen yliopiston eksistentiaalisten riskien tutkimuskeskuksen perustaja; Professori Shivaji Sondhi, fysiikan professori, Oxfordin yliopisto; Professori K Vijay Raghavan, Intian hallituksen entinen tieteellinen neuvonantaja; Amandeep Singh Gill, YK:n pääsihteerin teknologialähettiläs; Seán Ó hÉigeartaigh, Cambridgen yliopiston eksistentiaalisten riskien tutkimuskeskuksen pääjohtaja; Sir David Spiegelhalter, Wintonin yliopiston julkisen riskin ymmärtämisen professori
Cambridgesta; Amanda-June Brawner, vanhempi poliittinen neuvonantaja ja Ian Wiggins, kansainvälisten asioiden johtaja, Royal Society, Yhdistynyt kuningaskunta; Tohtori Jerome Duberry, toimitusjohtaja ja tohtori Marie-Laure Salles, johtaja, Geneva Graduate Institute; Chor Pharn Lee, strategisten tulevaisuuksien keskus, pääministerin kanslia, Singapore; Barend Mons ja tohtori Simon Hodson, Datakomitea (CoDATA); Professori Yuko Harayama, entinen toiminnanjohtaja, RIKEN; Professori
Rémi Quirion, toimitusjohtaja, INGSA; Tri Claire Craig, Oxfordin yliopisto ja entinen ennakointipäällikkö, valtion tiedevirasto; Professori Yoshua Bengio, YK:n pääsihteerin tieteellinen neuvottelukunta ja Université de Montréal; ja monet muut, jotka antoivat palautetta ISC:lle alkuperäisestä keskusteluasiakirjasta.
Kansallisten tutkimusekosysteemien valmistelu tekoälyä varten: strategiat ja edistyminen vuonna 2024
Tämä ISC:n ajatushautomo Center for Science Futures -työasiakirja tarjoaa perustietoa ja pääsyn resursseihin maista eri puolilta maailmaa eri vaiheissa tekoälyn integroinnissa tutkimusekosysteemeihinsä.
Tulevaisuuden valmiiden tiedejärjestelmien rakentaminen globaalissa etelässä
Uudet teknologiat muokkaavat tieteen harjoittamistapaa ja tarjoavat merkittävää potentiaalia vahvistaa tiedejärjestelmiä globaalissa etelässä – jos niiden käyttöönottoa ohjaavat osallistavat, hyvin tuetut ja kontekstiherkät lähestymistavat. Tämän äskettäisen strategisen retriitin keskeisenä painopisteenä oli se, miten varmistetaan, että nämä teknologiat edistävät oikeudenmukaisempia ja kestävämpiä tiedejärjestelmiä sen sijaan, että ne vahvistaisivat olemassa olevia eriarvoisuuksia.