Luo tili

Aseta paperi

Kehys nopeasti kehittyvien digitaalisten ja siihen liittyvien teknologioiden arvioimiseksi: tekoäly, suuret kielimallit ja muut

Tämä keskusteluasiakirja tarjoaa ääriviivat alustavalle viitekehykselle, joka antaa tietoa monista tekoälyyn liittyvistä maailmanlaajuisista ja kansallisista keskusteluista.

Useat akateemikot ja politiikan asiantuntijat ovat ehdottaneet, että Kansainvälinen tiedeneuvosto – sen moniarvoinen yhteiskunta- ja luonnontieteiden jäsenistö – perustaa prosessin, jolla tuotetaan ja ylläpidetään annotoitua viitekehystä/tarkistuslistaa riskeistä, hyödyistä, uhista ja mahdollisuuksista. liittyvät nopeasti muuttuviin digitaalitekniikoihin, mukaan lukien – mutta ei rajoittuen – tekoälyyn. Tarkistuslistan tarkoituksena on tiedottaa kaikille sidosryhmille – mukaan lukien hallitukset, kauppaneuvottelijat, sääntelyviranomaiset, kansalaisyhteiskunta ja teollisuus – mahdollisista tulevaisuuden skenaarioista ja kehystää, miten he voisivat harkita mahdollisuuksia, etuja, riskejä ja muita kysymyksiä.

ISC:llä on ilo esitellä tämä keskusteluasiakirja nopeasti kehittyvän digitaalisen ja siihen liittyvän teknologian arvioinnista. Tekoäly, synteettinen biologia ja kvanttiteknologiat ovat erinomaisia ​​esimerkkejä tieteen pohjalta tulevasta innovaatiosta, joka syntyy ennennäkemättömällä vauhdilla. Voi olla haastavaa ennakoida järjestelmällisesti paitsi niiden sovelluksia, myös niiden vaikutuksia.

Generatiivisen tekoälyn yhteiskunnallisten näkökohtien, kuten suurten kielimallien, jotka ennustettavasti edustavat valtaosaa tästä keskusteluasiakirjasta, arvioiminen on tarvittava silta nykyiseen keskusteluun – toisinaan paniikkivetoisesti, toisinaan ei tarpeeksi syvällisesti ajateltuna – ja tarvittavat kurssit. toimenpiteitä, joihin voimme ryhtyä. ISC on vakuuttunut siitä, että tällaisten uusien teknologioiden yhteiskunnallisen hyväksynnän ja niiden mahdollisen sääntelyn välillä tarvitaan analyyttinen kehys, jotta voidaan helpottaa sidosryhmien välistä keskustelua, jota tarvitaan tietoon perustuvien ja vastuullisten päätösten tekemiseksi tämän nopeasti kehittyvän teknologian sosiaalisten hyötyjen optimoinnista.

ISC on avoin yhteisömme reaktioille tämän keskustelupaperin kautta arvioidakseen, kuinka parhaiten jatkaa osallistumista teknologiaa koskevaan keskusteluun ja siihen osallistumista.

Salvatore Aricò, toimitusjohtaja
ISC-keskustelupaperi

ISC-keskustelupaperi

Kehys nopeasti kehittyvien digitaalisten ja siihen liittyvien teknologioiden arvioimiseksi: tekoäly, suuret kielimallit ja muut

Tämä keskusteluasiakirja tarjoaa ääriviivat alustavalle viitekehykselle, joka antaa tietoa monista tekoälyyn liittyvistä maailmanlaajuisista ja kansallisista keskusteluista.

Lataa raportti

Uusi! Lue vuoden 2024 versio poliittisille päättäjille ladattavan kehyksen avulla organisaatiollesi.

Opas poliittisille päättäjille: Nopeasti kehittyvien teknologioiden arviointi, mukaan lukien tekoäly, suuret kielimallit ja muut

Tämä keskusteluasiakirja tarjoaa ääriviivat alustavalle viitekehykselle, joka antaa tietoa monista tekoälyyn liittyvistä maailmanlaajuisista ja kansallisista keskusteluista.

Lue vuoden 2023 ISC-keskustelupaperi verkossa tai haluamallasi kielellä

Sisällys

  • esittely 
  • Tausta 
  • Analyyttisen viitekehyksen kehittäminen 
  • Analyyttisen viitekehyksen käyttö 
  • Mitat, jotka on otettava huomioon arvioitaessa uutta teknologiaa 
  • Tie eteenpäin 
  • Kiitokset

esittely

Nopeasti syntyvä teknologia tuo haasteita niiden hallinnassa ja mahdollisessa sääntelyssä. Tekoälyä (AI) ja sen käyttöä koskeva politiikka ja julkinen keskustelu on nostanut nämä asiat akuuttiin. Vaikka UNESCO, OECD ja muut ovat julkaisseet tekoälyn laajoja periaatteita ja teknologian maailmanlaajuisesta tai lainkäyttövaltaisesta sääntelystä käydään vasta keskusteluja, korkean tason periaatteiden kehittämisen ja niiden sisällyttämisen sääntelyyn, politiikkaan, hallinnon ja taloudenhoidon lähestymistavat. Tässä valtiosta riippumattomalla tiedeyhteisöllä voisi olla erityinen rooli. 

Useat tutkijat ja politiikan asiantuntijat ovat ehdottaneet, että Kansainvälinen tiedeneuvosto (ISC) – sen moniarvoinen jäsenistö yhteiskunta- ja luonnontieteistä – perustaisi prosessin, jonka avulla tuotetaan ja ylläpidetään selitettyä viitekehystä/tarkistuslistaa riskeistä, hyödyistä, nopeasti kehittyviin digitaalisiin teknologioihin liittyvät uhat ja mahdollisuudet, mukaan lukien – mutta ei rajoittuen – tekoäly. Tarkistuslistan tarkoituksena on tiedottaa kaikille sidosryhmille – mukaan lukien hallitukset, kauppaneuvottelijat, sääntelyviranomaiset, kansalaisyhteiskunta ja teollisuus – mahdollisista tulevaisuuden skenaarioista ja kehystää, miten he voisivat harkita mahdollisuuksia, etuja, riskejä ja muita kysymyksiä. 

Tuotokset eivät toimisi arviointielimenä, vaan mukautuvana ja kehittyvänä analyysikehyksenä, joka voisi tukea kaikkia sidosryhmien, mukaan lukien hallitukset ja monenvälinen järjestelmä, mahdollisesti kehittämiä arviointi- ja sääntelyprosesseja. Kaikki analyyttiset puitteet tulisi ihanteellisesti kehittää riippumattomina hallitusten ja teollisuuden vaatimuksista, kun otetaan huomioon niiden ymmärrettävät edut. Sen on myös oltava näkökulmiltaan mahdollisimman moniarvoinen, jolloin se kattaa kaikki tekniikan ja sen vaikutukset. 

Tämä keskusteluasiakirja tarjoaa ääriviivat alustavalle viitekehykselle, joka antaa tietoa monista tekoälyyn liittyvistä maailmanlaajuisista ja kansallisista keskusteluista. 

Tausta: Miksi analyyttinen viitekehys?

Tekoälyn monimutkaisuuden ja seurausten sisältävän teknologian nopea ilmaantuminen on saanut monia väitteitä suurista eduista. Se kuitenkin herättää myös pelkoa merkittävistä riskeistä yksilötasolta aina geostrategiseen tasoon. Suuri osa keskustelusta tapahtuu näkemysten kirjon ääripäissä, ja tarvitaan pragmaattisempaa lähestymistapaa. Tekoälyteknologia kehittyy edelleen, ja historia osoittaa, että käytännössä jokaisella tekniikalla on sekä hyödyllisiä että haitallisia käyttötarkoituksia. Kysymys kuuluukin: kuinka voimme saavuttaa tällä tekniikalla hyödyllisiä tuloksia samalla kun vähennämme haitallisten seurausten riskiä, ​​joista osa voi olla laajuudeltaan eksistentiaalista? 

Tulevaisuus on aina epävarma, mutta tekoälystä ja generatiivisesta tekoälystä on riittävästi uskottavia ja asiantuntevia ääniä, jotka kannustavat suhteellisen varovaiseen lähestymistapaan. Lisäksi tarvitaan järjestelmälähestymistapaa, koska tekoäly on teknologioiden luokka, jota käyttävät ja soveltavat laajasti monenlaiset käyttäjät. Tämä tarkoittaa, että koko konteksti on otettava huomioon, kun tarkastellaan tekoälyn vaikutuksia yksilöihin, sosiaaliseen elämään, kansalaiselämään, yhteiskunnalliseen elämään ja globaalissa kontekstissa. 

Toisin kuin useimmat aiemmat tekniikat, digitaalisilla ja siihen liittyvillä teknologioilla on hyvin lyhyt aika kehityksestä julkaisuun, mikä johtuu suurelta osin tuotantoyhtiöiden tai virastojen eduista. AI leviää nopeasti; jotkin ominaisuudet saattavat tulla ilmi vasta julkaisun jälkeen, ja tekniikalla voi olla sekä pahantahtoisia että hyväntahtoisia sovelluksia. Tärkeiden arvojen ulottuvuudet vaikuttavat siihen, miten käyttö koetaan. Lisäksi pelissä voi olla geostrategisia etuja. 

Tähän mennessä virtuaalisen teknologian sääntelyä on nähty pitkälti "periaatteiden" ja vapaaehtoisen noudattamisen linssin kautta. Viime aikoina keskustelu on kuitenkin kääntynyt kansallista ja monenvälistä hallintoa koskeviin kysymyksiin, mukaan lukien sääntely- ja muiden poliittisten välineiden käyttö. Tekoälyn puolesta tai sitä vastaan ​​esitetyt väitteet ovat usein hyperbolisia ja – tekniikan luonteen vuoksi – vaikeita arvioida. Tehokkaan globaalin tai kansallisen teknologiasääntelyjärjestelmän luominen on haastavaa, ja ketjussa tarvitaan useita riskitietoisen päätöksenteon tasoja keksijältä tuottajaan, käyttäjään, hallitukseen ja monenväliseen järjestelmään. 

Vaikka muun muassa UNESCO, OECD ja Euroopan komissio ovat julistaneet korkean tason periaatteita ja käynnissä on useita korkean tason keskusteluja mahdollisista sääntelykysymyksistä, tällaisten periaatteiden ja hallinto- tai sääntelykehyksen välillä on suuri ontologinen kuilu. Mikä on se huomioiden taksonomia, joka sääntelyviranomaisen on ehkä otettava huomioon? Kapeasti kohdistettu kehystys ei olisi viisasta, kun otetaan huomioon näiden teknologioiden laajat vaikutukset. Tämä potentiaali on saanut paljon kommentteja, sekä positiivisia että negatiivisia.

Analyyttisen viitekehyksen kehittäminen

ISC on tärkein kansainvälinen kansalaisjärjestö, joka yhdistää luonnon- ja yhteiskuntatieteitä. Sen maailmanlaajuinen ja kurinalainen kattavuus tarkoittaa, että sillä on hyvät mahdollisuudet tuottaa riippumattomia ja maailmanlaajuisesti olennaisia ​​neuvoja edessä olevien monimutkaisten valintojen tekemiseksi, varsinkin kun tällä areenalla äänet tulevat suurelta osin teollisuudelta tai suurilta teknologiamahoilta. Viime kuukausina käydyn laajan keskustelun jälkeen, johon sisältyi valtiosta riippumattoman arviointiprosessin tarkastelu, ISC totesi, että sen hyödyllisin panos olisi tuottaa ja ylläpitää mukautuva analyyttinen viitekehys, jota voidaan käyttää keskustelun ja päätöksenteon perustana. kaikki sidosryhmät, myös mahdollisen muodollisen arviointiprosessin aikana. 

Tämä kehys olisi kattava tarkistuslista, jota voisivat käyttää sekä valtion että valtiosta riippumattomat instituutiot. Viitekehys tunnistaa ja tutkii tekoälyn ja sen johdannaisten kaltaisen teknologian potentiaalia laajalla linssillä, joka kattaa ihmisten ja yhteiskunnan hyvinvoinnin sekä ulkoiset tekijät, kuten talouden, politiikan, ympäristön ja turvallisuuden. Jotkin tarkistuslistan näkökohdat voivat olla merkityksellisempiä kuin toiset kontekstista riippuen, mutta paremmat päätökset ovat todennäköisempiä, jos kaikki alueet otetaan huomioon. Tämä on tarkistuslistalähestymistavan luontainen arvo. 

Ehdotettu viitekehys on johdettu aikaisemmasta työstä ja ajattelusta, mukaan lukien Kansainvälisen valtion tiedeneuvonnan verkoston (INGSA) digitaalisen hyvinvoinnin raportti1 ja OECD AI Classification Framework2 esitellä kokonaisuus tekoälyn mahdollisista mahdollisuuksista, riskeistä ja vaikutuksista. Näiden aikaisempien tuotteiden tarkoitus oli rajoitetumpi, kun otetaan huomioon niiden aika ja konteksti, joten tarvitaan kattava kehys, joka kattaa kaikki ongelmat sekä lyhyellä että pitkällä aikavälillä. 

Vaikka tämä analyyttinen viitekehys kehitettiin tekoälyn huomioon ottamiseksi, sitä voitaisiin soveltaa mihin tahansa nopeasti kehittyvään teknologiaan. Asiat on ryhmitelty laajasti seuraaviin luokkiin lisätutkimuksia varten: 

  • Hyvinvointi (mukaan lukien yksilön tai itsensä hyvinvointi, yhteiskunta ja sosiaalinen elämä sekä kansalaiselämä) 
  • Kauppa ja talous 
  • ympäristö- 
  • Geostrateginen ja geopoliittinen 
  • Teknologinen (järjestelmän ominaisuudet, suunnittelu ja käyttö) 

Mukana on luettelo kunkin edellä mainitun luokan huomioista sekä niiden mahdollisuuksista ja seurauksista. Jotkut ovat merkityksellisiä tietyille tekoälyn tapauksille tai sovelluksille, kun taas toiset ovat yleisiä ja agnostisia alustan tai käytön suhteen. Mitään yksittäistä tähän sisällytettyä näkökohtaa ei pitäisi käsitellä ensisijaisena, ja sellaisena kaikkia tulisi tarkastella. 

Miten tätä kehystä voitaisiin käyttää?

Tätä kehystä voitaisiin käyttää, mutta ei rajoittuen, seuraavilla tavoilla: 

  • Periaatteiden ja arvioinnin välisen kuilun kurominen umpeen luomalla validoitu yhteinen taksonomia niistä näkökohdista, joita asiaankuuluvat sidosryhmät voisivat käyttää pohjana antaakseen tietoa ja muotoillakseen lisäajattelua, mukaan lukien kaikki viranomaisten mahdollisesti kehittämät arviointikehykset. 
  • Tiedottaa vaikutustenarvioinneille. EU:n tekoälylaki edellyttää, että järjestöt, jotka tarjoavat tekoälytyökaluja tai ottavat tekoälyä prosesseihinsa, suorittavat vaikutustenarvioinnin tunnistaakseen aloitteidensa riskit ja soveltavan asianmukaista riskinhallintatapaa. Tässä esitettyä viitekehystä voitaisiin käyttää pohjana tälle. 
  • Tehostaa tekoälyn käytön ohjaamiseen ja hallitsemiseen tarvittavia eettisiä periaatteita. Viitekehys voi tehdä tämän tarjoamalla joustavan perustan, jolle voidaan kehittää luotettavia järjestelmiä ja varmistamalla teknologian laillisen, eettisen, vankan ja vastuullisen käytön. Näitä periaatteita voitaisiin testata kaikissa tässä viitekehyksessä esitettyjen vaikutusten suhteen. 
  • Helpottaa olemassa olevien toimenpiteiden (eli sääntelyn, lainsäädännön, politiikan) kartoittamista ja tunnistaa mahdolliset puutteet, jotka vaativat lisäharkintaa. 
  • Kehys on agnostinen teknologian ja sen käytön suhteen. Siksi sitä voitaisiin käyttää hyvin erilaisilla aloilla, kuten synteettisessä biologiassa. 

Seuraava taulukko on analyyttisen viitekehyksen ulottuvuuksien varhainen muotoilu. Tekniikasta ja sen käytöstä riippuen jotkut komponentit ovat merkityksellisempiä kuin toiset. Esimerkit tarjotaan havainnollistamaan, miksi kukin alue voi olla tärkeä; Tässä yhteydessä kehys vaatisi asiayhteyteen liittyvää laajennusta. On myös tärkeää erottaa alustan kehitys ja yleiset ongelmat, joita saattaa ilmetä tiettyjen sovellusten aikana.  

Mitat, jotka on otettava huomioon arvioitaessa uutta teknologiaa

Alustava luonnos mitoista, jotka on ehkä otettava huomioon uutta teknologiaa arvioitaessa
Vaikutuksen mitat Kriteeri Esimerkkejä siitä, kuinka tämä voi näkyä analyysissä  
Yksilö/ itse  Käyttäjien AI-kompetenssi  Kuinka päteviä ja tietoisia järjestelmän ominaisuuksista ovat todennäköiset käyttäjät, jotka ovat vuorovaikutuksessa järjestelmän kanssa? Miten heille toimitetaan asiaankuuluvat käyttäjätiedot ja varoitukset? 
Vaikutetut sidosryhmät  Ketkä ovat tärkeimmät sidosryhmät, joihin järjestelmä vaikuttaa (eli yksilöt, yhteisöt, heikossa asemassa olevat, alakohtaiset työntekijät, lapset, päättäjät, ammattilaiset)? 
valinnaisuus Onko käyttäjille mahdollisuus kieltäytyä järjestelmästä? pitäisikö heille antaa mahdollisuuksia haastaa tai korjata tulos?  
Ihmisoikeuksiin ja demokraattisiin arvoihin kohdistuvat riskit  Voisiko järjestelmä vaikuttaa (ja mihin suuntaan) ihmisoikeuksiin, mukaan lukien, mutta ei rajoittuen, yksityisyyteen, sananvapauteen, oikeudenmukaisuuteen, syrjinnän riskiin jne.? 
Mahdolliset vaikutukset ihmisten hyvinvointiin Voiko järjestelmä vaikuttaa (ja mihin suuntaan) yksittäisen käyttäjän hyvinvointiin (ts. työn laatuun, koulutukseen, sosiaaliseen vuorovaikutukseen, mielenterveyteen, identiteettiin, ympäristöön)?  
Mahdollisuus ihmisten työvoiman siirtymiseen Onko järjestelmällä mahdollisuuksia automatisoida ihmisten suorittamia tehtäviä tai toimintoja? Jos on, mitkä ovat loppupään seuraukset? 
Mahdollisuus identiteetin, arvojen tai tiedon manipulointiin Onko järjestelmä suunniteltu tai mahdollisesti kykenevä manipuloimaan käyttäjän identiteettiä tai arvoja tai levittämään disinformaatiota? Onko olemassa vääriä tai todentamattomia asiantuntijaväitteitä? 
Itsearvon mittarit Onko paineita esittää idealisoitua itseä? Voisiko automaatio korvata henkilökohtaisen täyttymyksen tunteen? Onko työpaikalla paineita kilpailla järjestelmän kanssa? Onko yksittäisen maineen suojaaminen disinformaatiolta vaikeampaa? 
yksityisyys Onko yksityisyyden turvaamisesta hajautettu vastuu ja tehdäänkö oletuksia siitä, miten henkilötietoja käytetään?  
Autonomia Voisiko järjestelmä vaikuttaa ihmisen autonomiaan luomalla loppukäyttäjien liialliseen teknologiaan? 
Ihmisen kehittyminen Onko vaikutusta ihmisen kehityksen kannalta keskeisten taitojen, kuten johtamistoimintojen, ihmissuhdetaitojen, oppimiseen vaikuttavien huomioajan muutosten, persoonallisuuden kehitykseen, mielenterveyshuolien yms. hankkimiseen?  
Henkilökohtainen terveydenhoito Onko väitteitä yksilöllisistä terveydenhuoltoratkaisuista? Jos on, onko ne validoitu sääntelystandardien mukaisesti? 
Henkinen terveys Onko olemassa lisääntynyttä ahdistusta, yksinäisyyttä tai muita mielenterveysongelmia, vai voiko tekniikka lieventää tällaisia ​​vaikutuksia? 
Ihmisen evoluutio Voiko teknologia johtaa muutoksiin ihmisen evoluutiossa?  
Vaikutuksen mitat Kriteeri Tuotetiedot 
Yhteiskunta/sosiaalinen elämä Yhteiskunnalliset arvot  Muuttaako järjestelmä perusteellisesti yhteiskunnan luonnetta tai mahdollistaako aiemmin epäsosiaalisiksi pidettyjen ideoiden normalisoinnin, vai rikkooko se sen kulttuurin yhteiskunnallisia arvoja, joissa sitä sovelletaan?  
Sosiaalinen vuorovaikutus Onko sillä vaikutusta mielekkääseen ihmiskontaktiin, mukaan lukien tunnesuhteet?  
Oma pääoma Vähentääkö tai lisääkö sovellus/teknologia todennäköisesti eriarvoisuutta (ts. taloudellista, sosiaalista, koulutuksellista tai maantieteellistä)? 
Väestön terveys Onko järjestelmällä potentiaalia edistää tai heikentää väestön terveydellisiä aikomuksia? 
Kulttuurinen ilmaisu Onko kulttuurisen omaisuuden tai syrjinnän lisääntyminen todennäköistä tai vaikeampaa käsitellä? Syrjäyttääkö tai marginalisoi yhteiskunnan osat mahdollisesti päätöksentekojärjestelmään? 
Julkinen koulutus Onko sillä vaikutusta opettajan rooleihin tai oppilaitoksiin? Korostaako vai vähentääkö järjestelmä opiskelijoiden välistä eriarvoisuutta ja digitaalista kuilua? Onko tiedon tai kriittisen ymmärryksen sisäinen arvo kehittynyt vai heikentynyt?  
Vääristynyt todellisuus Ovatko menetelmät, joita käytämme todellisuuden havaitsemiseen, edelleen voimassa? Onko todellisuuden käsitys vaarantunut?  
Taloudellinen konteksti (kauppa)         Teollisuus Millä teollisuudenalalla järjestelmää käytetään (esim. rahoitus, maatalous, terveydenhuolto, koulutus, puolustus)? 
Bisnesmalli Missä liiketoimintatoiminnossa järjestelmää käytetään ja missä ominaisuudessa? Missä järjestelmää käytetään (yksityinen, julkinen, voittoa tavoittelematon)? 
Vaikutus kriittisiin toimintoihin  Vaikuttaako järjestelmän toiminnan tai toiminnan häiriö keskeisiin palveluihin tai kriittisiin infrastruktuureihin?  
Käyttöönoton henkeä Miten järjestelmä on otettu käyttöön (kapeasti organisaation sisällä vs. laajalle levinnyt kansallisesti/kansainvälisesti)? 
Tekninen kypsyys (TRL) Kuinka teknisesti kypsä järjestelmä on?  
Teknologinen itsemääräämisoikeus Edistääkö teknologia teknologisen suvereniteetin suurempaa keskittymistä.  
Tulojen uudelleenjako ja kansalliset verovivut Voivatko suvereenin valtion ydinroolit vaarantua (eli varantopankit)? Edistyykö vai vähennetäänkö valtion kykyä vastata kansalaisten odotuksiin ja seurauksiin (eli sosiaalisiin, taloudellisiin, poliittisiin)?  
Vaikutuksen mitat Kriteeri Tuotetiedot 
Kansalaiselämä     Hallinto ja julkinen palvelu Voiko hallintomekanismeihin ja globaaleihin hallintojärjestelmiin vaikuttaa myönteisesti tai negatiivisesti? 
Uutismedia Onko julkinen keskustelu todennäköisesti enemmän tai vähemmän polarisoitunut ja juurtunut väestötasolla? Onko sillä vaikutusta median luottamustasoon? Vaikuttaako tavanomaiseen journalismin etiikkaan ja rehellisyysstandardeihin entisestään?  
Lain sääntö Vaikuttaako tämä kykyyn tunnistaa vastuullisia henkilöitä tai organisaatioita (eli millainen vastuu antaa algoritmille haitallisten tulosten varalta)? Menettääkö tämä suvereniteetin (eli ympäristö-, vero-, sosiaali-, etiikka)?  
Politiikka ja sosiaalinen yhteenkuuluvuus Onko mahdollista saada juurtuneempia poliittisia näkemyksiä ja vähemmän mahdollisuuksia konsensuksen rakentamiseen? Onko mahdollista syrjäyttää ryhmiä edelleen? Tehdäänkö vastakkaiset politiikan tyylit enemmän tai vähemmän todennäköisiksi? 
Geostrateginen/geopoliittinen konteksti     Tarkka valvonta Onko järjestelmiä koulutettu yksittäisten käyttäytymis- ja biologisten tietojen perusteella, ja jos on, voidaanko niitä käyttää yksilöiden tai ryhmien hyväksikäyttöön? 
Digitaalinen kolonisaatio Pystyvätkö valtiolliset tai valtiosta riippumattomat toimijat hyödyntämään järjestelmiä ja tietoja muiden maiden väestön ja ekosysteemien ymmärtämiseksi ja hallitsemiseksi tai heikentämään lainkäyttövaltaa? 
Geopoliittinen kilpailu Vaikuttaako järjestelmä kansojen ja teknologia-alustojen väliseen kilpailuun yksittäisten ja kollektiivisten tietojen saamisesta taloudellisiin tai strategisiin tarkoituksiin? 
Kauppa ja kauppasopimukset Onko järjestelmällä vaikutuksia kansainvälisiin kauppasopimuksiin? 
Muutos globaaleissa voimissa Onko kansallisvaltioiden asema maailman tärkeimpinä geopoliittisina toimijoina uhattuna? Käyttävätkö teknologiayritykset valtaa, joka oli aikoinaan varattu kansallisvaltioille, ja ovatko niistä tulossa itsenäisiä suvereeneja toimijoita?  
harhaanjohtavat tiedot Onko valtion ja ei-valtiollisten toimijoiden helpompi tuottaa ja levittää disinformaatiota, joka vaikuttaa sosiaaliseen yhteenkuuluvuuteen, luottamukseen ja demokratiaan?  
ympäristö-   Energian ja resurssien kulutus (hiilijalanjälki) Lisäävätkö järjestelmä ja vaatimukset energian ja resurssien kulutuksen käyttöä sovelluksella saavutettujen tehokkuushyötyjen lisäksi?  
Vaikutuksen mitat Kriteeri Tuotetiedot 
Data ja syöttö          Havaitseminen ja kerääminen  Keräävätkö tiedot ja syötteet ihmiset, automaattiset anturit vai molemmat?  
Tietojen alkuperä  Ovatko tiedot toimitettuja, havaittuja, synteettisiä vai johdettuja? Onko olemassa vesileimasuojauksia alkuperän vahvistamiseksi? 
Tietojen dynaaminen luonne Ovatko tiedot dynaamisia, staattisia, päivittyvät ajoittain vai päivittyvätkö reaaliajassa? 
Oikeudet Ovatko tiedot omistusoikeudellisia, julkisia vai henkilökohtaisia ​​(eli liittyvätkö tunnistettavissa oleviin henkilöihin)?  
Henkilötietojen tunnistettavuus  Jos henkilötietoja, ovatko ne anonymisoituja vai pseudonyymejä?  
Tietojen rakenne Ovatko tiedot jäsenneltyä, puolirakenteista, monimutkaista jäsenneltyä vai jäsentämätöntä? 
Tietojen muoto  Onko tietojen ja metatietojen muoto standardoitu vai ei-standardoitu?  
Tietojen mittakaava  Mikä on tietojoukon mittakaava?  
Tietojen asianmukaisuus ja laatu Onko tietojoukko tarkoitukseen sopiva? Onko otoskoko riittävä? Onko se tarpeeksi edustava ja täydellinen? Kuinka äänekäs data on? Onko se virhealtista?  
Malli             Tietojen saatavuus  Onko tietoa järjestelmän mallista saatavilla?  
AI-mallin tyyppi  Onko malli symbolinen (ihmisen luomat säännöt), tilastollinen (käyttää dataa) vai hybridi?  
Malliin liittyvät oikeudet  Onko malli avoimen lähdekoodin vai patentoitu, itse tai kolmannen osapuolen hallinnoima? 
Yksi tai useampi malli  Koostuuko järjestelmä yhdestä mallista vai useista toisiinsa linkitetyistä malleista?  
Generatiivinen tai syrjivä Onko malli generatiivinen, syrjivä vai molempia?  
Mallirakennus  Oppiiko järjestelmä ihmisten kirjoittamien sääntöjen perusteella, datasta, ohjatun oppimisen vai vahvistusoppimisen kautta?  
Mallin evoluutio (AI drift) Kehittyykö malli ja/tai saako se kykyjä vuorovaikutuksessa kentän tietojen kanssa?  
Yhdistetty tai keskitetty oppiminen Onko malli koulutettu keskitetysti vai useissa paikallisissa palvelimissa tai "reunalaitteissa"?  
Kehitys ja ylläpito  Onko malli universaali, muokattavissa vai räätälöity tekoälynäyttelijän dataan?  
Deterministinen tai todennäköisyys  Käytetäänkö mallia deterministisellä vai todennäköisyydellä?  
Mallin läpinäkyvyys  Onko käyttäjien saatavilla tietoa, jonka avulla he voivat ymmärtää mallin tuotoksia ja rajoituksia tai käyttää rajoituksia?  
Laskennallinen rajoitus Onko järjestelmässä laskennallisia rajoituksia? Voimmeko ennustaa kykyhyppyjä tai skaalauslakeja? 
Vaikutuksen mitat Kriteeri Tuotetiedot 
Tehtävä ja tulos       Järjestelmän suorittamat tehtävät Mitä tehtäviä järjestelmä suorittaa (eli tunnistus, tapahtuman havaitseminen, ennustaminen)?  
Tehtävien ja toimien yhdistäminen  Yhdistääkö järjestelmä useita tehtäviä ja toimia (esim. sisällöntuotantojärjestelmät, autonomiset järjestelmät, ohjausjärjestelmät)?  
Järjestelmän autonomian taso Kuinka itsenäisiä järjestelmän toiminta on ja mikä rooli ihmisillä on?  
Ihmisen osallistumisen aste Onko ihmisten mukana valvomassa tekoälyjärjestelmän yleistä toimintaa ja kykyä päättää milloin ja miten järjestelmää käytetään missä tahansa tilanteessa? 
Ydinsovellus Kuuluuko järjestelmä johonkin ydinsovellusalueeseen, kuten ihmiskieliteknologiaan, tietokonenäköön, automaatioon ja/tai optimointiin tai robotiikkaan?  
Arviointi  Onko saatavilla standardeja tai menetelmiä järjestelmän tulosten arvioimiseksi tai odottamattomien ilmenevien ominaisuuksien käsittelemiseksi?  

Avain kuvaajien lähteet

selkeä teksti:
Gluckman, P. ja Allen, K. 2018. Hyvinvoinnin ymmärtäminen nopeiden digitaalisten ja siihen liittyvien muutosten kontekstissa. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf 

Lihavoitu teksti:
OECD. 2022. OECD:n kehys tekoälyjärjestelmien luokittelulle. OECD Digital Economy Papers, nro 323, OECD Publishing, Paris. https://oecd.ai/en/classification 

Kursivinen teksti:
Uudet kuvaajat (useista lähteistä) 

Tie eteenpäin

Tähän keskusteluasiakirjaan saadusta vastauksesta riippuen ISC muodostaisi asiantuntijatyöryhmän kehittämään tai muuttamaan edellä mainittua analyyttistä viitekehystä, jonka avulla sidosryhmät voisivat tarkastella kokonaisvaltaisesti merkittäviä alustojen tai käyttöulottuvuuksien muutoksia. Työryhmä olisi kurinalaisesti, maantieteellisesti ja demografisesti monipuolinen, ja sen asiantuntemus ulottuisi teknologian arvioinnista julkiseen politiikkaan, ihmisen kehityksestä sosiologiaan ja tulevaisuuteen ja teknologiatutkimukseen. 

Jos haluat osallistua tähän keskustelupaperiin, käy osoitteessa Council.science/publications/framework-digital-technologies 

Kiitokset

Tämän asiakirjan laatimisessa on kuultu useita ihmisiä. Sir Peter Gluckman, ISC:n puheenjohtaja ja Hema Sridhar, entinen puolustusministeriön päätutkija ja nykyinen vanhempi tutkija Aucklandin yliopistossa Uudessa-Seelannissa. 

Kiitämme erityisesti Lord Martin Reesiä, Royal Societyn entistä presidenttiä ja Cambridgen yliopiston eksistentiaalisten riskien tutkimuskeskuksen perustajaa; Professori Shivaji Sondhi, fysiikan professori, Oxfordin yliopisto; Professori K Vijay Raghavan, Intian hallituksen entinen tieteellinen neuvonantaja; Amandeep Singh Gill, YK:n pääsihteerin teknologialähettiläs; tohtori Seán Óh Éigeartaigh, Cambridgen yliopiston eksistentiaalisten riskien tutkimuskeskuksen pääjohtaja; Amanda-June Brawner, vanhempi poliittinen neuvonantaja ja Ian Wiggins, kansainvälisten asioiden johtaja, Royal Society UK; Tri Jerome Duberry, tohtori Marie-Laure Salles, johtaja, Geneva Graduate Institute; Chor Pharn Lee, strategisten tulevaisuuksien keskus, pääministerin kanslia, Singapore; Barend Mons ja tohtori Simon Hodson, Datakomitea (CoDATA); Professori Yuko Harayama, Japani; Professori Rémi Quirion, johtaja, INGSA; Tri Claire Craig, Oxfordin yliopisto ja entinen ennakointipäällikkö, valtion tiedevirasto; ja prof Yoshua Bengio, YK:n pääsihteerin tieteellinen neuvoa-antava toimikunta ja Université de Montréal. Tarkistuslista-lähestymistapaa kannatettiin yleisesti, ja ISC:n kaikkien toimien oikea-aikaisuutta korostettiin. 


Liity keskusteluun

Nimi
Sukupuoli
Tietosuoja: Vastaajien tulee olla tietoisia siitä, että ISC säilyttää lähetetyt tiedot aloitteen ajan (katso: https://council.science/privacy-policy)
Kutsumme sinut tilaamaan ISC-uutiskirjeen.

Kuva: adamichi iStockissa