User:PiretN

From Wikiversity

AI 9 eetilist väljakutset[edit]

Sissejuhatus

Kitsal tehisintellektil põhinevad lahendused on osaks meie igapäevaelust - Spotify muusikasoovitusest pettusetuvastuseni panganduses. Tehisintellekti murranguline areng on toetanud innovatsiooni paljudes valdkondades ning üha kasvab nii rakendusulatus kui ka vastutus, mida neile mudelitele usaldame. Kuid lisaks tajutavale väärtusele, kaasneb kiire uuendusega olulisi küsimusi ja potentsiaalseid probleeme, millele tuleb tähelepanu pöörata - millised on võimalikud ohud ja varjatud mõjud ühiskonnale?

1. Inimkond. Kuidas mõjutavad masinad meie käitumist ja suhtlemist?

Tehisintellektid muutuvad üha paremaks inimese vestluse ja suhete modelleerimisel. Kui inimestel on piiratud tähelepanu ja lahkus, mida nad saavad teise inimese peale kulutada, siis tehisintellektid võivad suhete loomiseks suunata praktiliselt piiramatuid ressursse.[1]

Kuigi paljud meist pole sellest teadlikud, oleme juba tunnistajad, kuidas masinad võivad käivitada inimese aju hüvituskeskused. Vaadates ainult klõpsatusega pealkirju ja videomänge, mida sageli optimeeritakse A / B-testimisega (ehk sisu algoritmilise optimeerimisega), et meie tähelepanu köita. Seda ja teisi meetodeid kasutatakse arvukate video- ja mobiilimängude sõltuvust tekitavaks muutmiseks.[1]

Teisest küljest võime ehk mõelda tarkvara teistsugusele kasutamisele, mis on juba muutunud tõhusaks inimese tähelepanu juhtimisel ja teatud toimingute käivitamisel. Õige kasutamise korral võib see kujuneda võimaluseks nihutada ühiskonda soodsama käitumise poole aga valedes kätes võib see osutuda kahjulikuks.[1]

Väga oluliseks aspektiks on veel inimeste omavahelise suhtluse langus, mis on tugevalt seotud tehisintellektidega. Nüüd on ajaloos rohkem kui kunagi varem võimalik üksinda kodus veeta[2]. Veebipood tähendab, et te ei pea kunagi välja minema, kui te seda ei soovi[2].

Kuigi enamikul meist on endiselt sotsiaalne elu, on omavaheliste isiklike suhete arv vähenenud. Nüüd oleme rahul suhete hoidmisega tekstisõnumite ja Facebooki postituste kaudu. Tulevikus võiks AI olla teile parem sõber kui teie lähimad sõbrad. See võiks õppida seda, mis teile meeldib, ja öelda teile, mida soovite kuulda. Paljud on mures, et inimsuhete selline digitaliseerimine (ja võib-olla ka asendamine) ohverdab meie inimkonna olulise ehk sotsiaalse osa.[2]

Vahetu inimsuhtlus asendub järjest rohkem võrguühiskonnaga, kus inimeste füüsiline asukoht ei ole enam määrav. Oma emotsioonide väljendamine asendub emotikonide lisamisega tekstile ning tegelikud tundeid jäävad varju.

AI tungib meie ellu ja peame seisma silmitsi võimalusega, et see jahutab meie emotsioone ning pärsib sügavaid inimlikke kontakte teise inimestega. Vajame reegleid ja poliitilisi muudatusi, et aidata tegeleda intellektuaalomandi võimalike negatiivsete mõjudega ühiskonnale.[3] Kaugemas tulevikus võivad AI-ga varustatud masinad kas programmeerimise või iseseisva õppimise abil välja pakkuda intelligentsuse ja käitumise vorme, mis tunduvad meie omadega võrreldes kummalised.[3]


2. Turvalisus. Kuidas kaitsta tehisintellekti vastaste eest?

Mida võimsamaks muutub tehisintellekt meie ühiskonnas, seda ohtlikumaks relvaks muutub see samuti. [2] Seda võib väita kõigi tehnoloogiate kohta, mitte ainult tehisintellektist rääkides.

Kujutage ette näiteks stsenaariumi, kus nö pahalased võtavad kontrolli linna veevarustuse, elektrivõrgustiku või fooride üle. Või näiteks tehisintellekt sõjanduses, kus robot õpib võitlema ja droonid on suutelised end ise lahinguväljal juhtima. [2] Robotid on võimelised asendama inim sõdureid ja tavalised relvad asenduvad autonoomsete relvadega. Nende kahe pahatahtlik kasutamine võib põhjustada märkimisväärseid kahjusid. [1] Erinevalt teistest massihävitusrelvadest võimaldaksid autonoomsed robotrelvad sihikule võtta kindlaid inimrühmi. Selle aluseks ei pruugi olla rahvus või nahavärv, vaid ka näiteks ühismeedias kasutatud teemasilt. [5]

Poolenisti autonoomsed relvad on USA sõjaväes juba kasutusel. Sarnaselt loodab lõigata neist eeskätt mereväes kasu Hiina. Venemaa kava kohaselt moodustavad robotid 2025. aastaks riigi sõjavarustusest 30 protsenti. [5]

Tulevased lahingud ei peeta ainult lahinguväljal ning selle tõttu on küberturvalisus muutumas olulisemaks kui kunagi varem. Tehisintellekti juurdepääsu kontrollimine on tohutult keeruline väljakutse, kus väiksemgi eksimine võib karmilt kätte maksta. Me ei tohiks tehisintellekti eeliseid tsentraliseerida, kuid me ei taha ka, et tehisintellekt oleks meile ohtlik. Järgnevatel aastatel saab sellest suur väljakutse, kuna tehisintellektid muutuvad järjest intelligentsemaks ja seda tohutu kiirusega. [2]

Tehisintellekti turvalisuse, droonide, küberturvalisuse, surmavate autonoomsete relvasüsteemide ja vastuterrorismi valdkondade spetsialistid tuvastasid 2017. aastal Oxfordi ülikooli juures läbiviidud seminari raames kolm peamist turvalisuse valdkonda, mida tehisintellekti kiire areng ilmselt tugevalt ohustab: digitaalne turvalisus, füüsiline turvalisus ja poliitiline turvalisus. [6]

Tehisintellekti nagu ka enamikku uusi tehnoloogiaid, on võimalik kasutada nii hüvelistel kui ka pahatahtlikel eesmärkidel, mistõttu on inimkonna tuleviku huvides oluline sellest tehnoloogiast tulenevaid riske üksikasjalikult, põhjalikult ja adekvaatselt analüüsida, kuna need kujutavad endast potentsiaalselt ka väga tõsiseid turvariske kodanike, organisatsioonide ja riikide jaoks [6] Praegustest tehisintellekti ohtudest väärivad kindlasti äramainimist:

Tarkvarasüsteemide haavatavuste tuvastamise automatiseerimine – koodi haavatavuse ajaloolisi mustreid kasutatakse uute haavatavuste tuvastamiseks ning uue koodi loomiseks, mis neid haavatavusi ära kasutaks;

Häkkimise täiustatud automatiseerimine – tehisintellekti kasutatakse (autonoomselt või koostöös inimestega) sihtmärkide valimise parandamiseks ja prioritiseerimiseks, tabamise vältimiseks ning loominguliseks reageerimiseks sihtmärgi käitumise muutumisele;

Küberrünnaku sihtmärkide automaatne prioritiseerimine – suuri andmekogumeid kasutatakse ohvrite tõhusamaks tuvastamiseks, nt läbi nende isikliku vara või maksevalmiduse hindamise nende veebikäitumise põhjal;

Tööülesannete automatiseerimine kriminaalses küberrünnakus – rünnaku põhiülesannete automatiseerimine, nt maksete töötlemine või suhtlus lunavara ohvritega.[6]

Tehisintellekti pahatahtlik kasutamine võib ohustada nii digitaalset, füüsilist kui ka poliitilist turvalisust, mida saab küll tinglikult üksteisest eraldada, kuid mis on fundamentaalselt siiski omavahel tugevalt läbi põimunud. Seetõttu sõltub tehisintellekti pahatahtlikest kasutusvõimalustest suuresti ka see, kuidas me rajame ja haldame oma digitaalset infrastruktuuri, kuidas ehitame ja jaotame tehisintellekti süsteeme ning milliseid seadusandlikke ja institutsionaalseid meetmeid peame meie ühise turvalisuse tagamiseks rakendama. [6]


3. Kurjad geenid. Kuidas kaitsta soovimatute tagajärgede eest?

Mis saab, kui tehisintellekt ise pöördub meie vastu? Arenenud AI-süsteemi võib ette kujutada "pudelis oleva džinnina", mis võib küll soove täita, kuid kohutavate ettenägematute tagajärgedega.[1]

AI süsteemi kirjutatud koodiread ei pruugi alati saavutada oodatud tulemust ja võivad tegutseda vastupidiselt inimese ootustele. Seda katset illustreeriv mõtteeksperiment oli Oxfordi filosoof Nick Bostromi poolt 2003 aastal. Bostrom kujutas ette tehisintellekti, mis oli programmeeritud näiliselt kahjutu eesmärgiga tootma kirjaklambreid ja robot muudab kogu maailma lõpuks hiiglaslikuks kirjaklambritehaseks. Sellise stsenaariumi võib aga tagasi lükata kui akadeemilise probleemi käsitlusena, mis võib tekkida kauges tulevikus.[4]

Kuid valesti joondatud AI on muutunud probleemiks oodatust varem ja kõige murettekitavam näide on YouTube, mis mõjutab miljardeid inimesi. See kasutab vaatamisaja maksimeerimiseks AI-põhiseid sisusoovituste algoritme. Kaks aastat tagasi hakkasid arvutiteadlased ja kasutajad märkama, et YouTube'i algoritm näib saavutavat oma eesmärgi, soovitades üha äärmuslikumat ja konspiratiivsemat sisu. Üks teadlane teatas, et pärast Donald Trumpi kampaania kaadrite vaatamist pakkus YouTube oma videoid, mis sisaldasid „holokausti eitamist ja muud häirivat sisu“. Algoritmi eelnevat lähenemisviisi ületades läks see poliitikast kaugemale ja jooksmise videod viisid ultramaratonide jooksmise videote juurde. ” Seetõttu näitavad uuringud, et YouTube'i algoritm on aidanud inimesi polariseerida ja radikaliseerida ning levitada desinformatsiooni, et me jätkaksime vaatamist.[4]

YouTube'i insenerid ei kavatsenud ilmselt inimkonda radikaliseeruda, kuid koodikirjutajad ei suuda kõike ette näha. Probleemi peamine aspekt on see, et inimesed ei tea sageli, milliseid eesmärke meie AI-süsteemidele anda, kuna me ei tea, mida me tegelikult tahame. Kui küsite tänavalt kelleltki:" Mida soovite, et teie autonoomne auto teeks? ", siis saaksid vastuseks:" Kokkupõrke vältimine " ütles Stanfordi ülikooli AI teadlane Dorsa Sadigh, kes on spetsialiseerunud inimeste ja robotite interaktsioonile. Kuid see pole ainult see, et inimestel on hunnik eelistusi. Ülimalt ohutud isesõitvad autod liiguvad liiga aeglaselt ja pidurdavad nii tihti, et teevad sõitjad haigeks. Kui programmeerijad proovivad loetleda kõiki eesmärke ja eelistusi, mida robotauto peaks samaaegselt tegema, siis jõuab loend paratamatult ebatäielikuks.[4]

Nende lünkade vältimiseks ja AI joondamise probleemi potentsiaalseks lahendamiseks on teadlased asunud välja töötama täiesti uue meetodi kasulike masinate programmeerimiseks. [4]


4. Roboti õigused. Kas tehisintellekt võib kannatada?

Põhimõtteline eetiline küsimus on, kas tehisintellektil võivad olla või peaksid olema õigused. Ahvatlev on mõelda, et kuna tehisintellekt on lihtsalt üks tükike arvuti koodi, siis ei saa neil tundeid olla. Sa võid vihastuda Siri või Alexa peale neile haiget tegemata. Siiski on selge, et teadvus ja intelligentsus toimivad tasu ja vastumeelsuse süsteemil. Kui tehisintellektid saavad targemaks kui meie, tahame me, et nad oleksid meie partnerid, mitte vaenlased. Tehisintellekti inimliku kohtlemise kodifitseerimine võiks selles mängida suurt rolli. [2]

Praegu on sellised süsteemid üsna pealiskaudsed, kuid nad on muutumas keerukamaks ja elutruumaks. Kas süsteem kannatab, kui selle premeerimisfunktsioonid annavad negatiivse sisendi? Niinimetatud geneetilised algoritmid töötavad, luues korraga mitmeid süsteemi eksemplare, milledest ainult kõige edukamad “jäävad ellu” ja moodustavad järgmise põlvkonna eksemplarid. See juhtub mitmete põlvkondade vältel ja on üks viis süsteemi täiustamiseks. Ebaõnnestunud eksemplarid kustutatakse. Mis hetkest võiksime pidada geneetilisi algoritme ühe massimõrvade vormina? [1]

Mõned eetilised küsimused on seotud kannatuste leevendamisega, mõned negatiivsete tulemuste riskiga. Kuigi me arvestame nende riskidega, peaksime me ka meeles pidama, et tervikuna tähendab tehnoloogiline areng paremat elu kõigile. Tehisintellektil on tohutu potentsiaal ja selle vastutustundlik rakendamine on meie endi kätes. [1]

Kuigi robotite ja tehisintellekti algoritmide vastutusele on juba pühendatud märkimisväärset tähelepanu, muutuvad nende õigustega seotud küsimused veel aktuaalsemaks. Kunagi mõeldamatu kontseptsioon on huvitav ja väärib meie tähelepanu. Robotite või tehisintellekti moraalse ja õigusliku seisundi küsimuse võib sõnastada järgmiselt - kas arvestada, et arvuti on võimeline olema juriidiliselt tunnustatud isik või pole see midagi muud kui tööriist või vara? Robotid ja tehisintellekti algoritmid on objektid, millest ei saa mõelda kasutades olemasolevaid moraalseid ja juriidilisi kategooriaid. See tähendab, et tulevikus võib-olla peame mõtlema robotite sotsiaalsest staatusest ning nende kohast õigussüsteemis. [7]

Kokkuvõttes võib öelda, et tänapäeval on kõige aktuaalsemad tehisintellekti rakendamise väljakutsed seotud privaatsusega, turvalisusega ning eetikaga. Väljakutsed seotud robotite õigustega ja sellega, kuidas inimene peaks tehisintellekti suhtes käituma, kui on võimalik, et tehisintellektil on tunded, ei ole veel nii päevakajalised. [7]


5. Ebavõrdsus. Kuidas tagada tehisintellekti poolt tekitatud ebavõrdsus?

Tehisintellektil ja ebavõrdsusel võib välja tuua mitu erinevat aspekti:

  • Sissetulek
  • Ebavõrdne kasutamine

Kuidas jaotada tehisintellekti poolt loodav tulu? Ühel ajahetkel me oleme punktis, kus suur osa maailma rikkusest on väga väheste inimeste kätes ning väga paljud inimesed on jäänud tööta ning seeläbi ka sissetulekuta. Selline situatsioon on väga reaalne, kus automaatsed protsessid ja tegevused saavad tehisintellekit ja robootika abil tehtud, mistõttu inimtööjõud kaotab seeläbi oma töö. Teisest küljest tähendab see seda, et suur osa tehisintellekti poolt loodud tulust läheb ainult käputäie inimeste kätte ning samal ajal on aga märkimisväärne osa inimkonnast sissetulekuta.

Isegi kui rakendada ümberõpet ei jagu sel juhul piisavalt töökohti kõigile neile, kes oma töö on kaotanud.[8] Siin tekib rida järgmisi küsimusi, mis vajavad tulevikus sekkumist riigi tasandil:
Sotsiaalne võrdsus: Laias laastus võtame rikastelt ja anname vaestele. Kas ikka anname vabatahtlikult? Kuidas tagada sotsiaalne “võrdsus” sel juhul vähemkindlustatutele? Kas ja millised sotsiaaltoetusprogrammid tuleb riigi tasandil luua?

Tegevusetus: kui eelmine punkt on kaetud, siis aga tekib nö virelev mass, mis kindlasti väga paljusid indiviide ei rahulda. Kuhu suunata nende energia? Kai-Fu Lee [9] arvab, et puutumata jäävad positsioonid, mis vajad loovust, sümpaatiat ning millel on abistav loomus. Samas, kui palju meil on vaja ettekandjaid, sümpaatseid meditsiiniõdesid ning kui paljud pensionärid vajavad abi poes või arstivisiidil käimisel?

Isegi kui rakendada ümberõpet ei jagu sel juhul piisavalt töökohti kõigile neile, kes oma töö on kaotanud.[8]

Ebavõrdne kasutamine Maailmas on palju riike, kus ebavõrdsus vohab ilma tehisintellektitagi (näiteks mõned Aafrika riigid). Siit tekib kohe järgmine sotsiaalne aspekt: kuidas välistada seda, et tehisintellekt ei satuks “valedesse kätesse” ning seda ei kasutada sihtotstarbeliselt? Kuidas tagada, et tehisintellekt ei teenindaks vaid väheseid sihtgruppe, vaid kõik saaks selle tulemist võrdväärselt osa?


6. Ainulaadsus Kuidas kaitsta inimkonda ja tehisintellekti... tehisintellekti eest?

Täna on inimene toiduahela tipus tänu sellele, et ta on kõige targem ja taibukam elusolend: ta suudab ja oskab kasutada erinevaid vahendeid ning omab kognitiivset võimeid nagu õppimine ja kohandumine erinevates olukordades. Täna on tehisintellekt umbes samal tasemel kui inimene: ta suudab mõelda ja kalkuleerida inimese võimekuse piirides.

Mis juhtub aga siis, kui tehisintellekt ületab inimvõimete piiri: kui ta on targem kui inimene? Kujutage ette olukorda, kus tehisintellektist saab superintellekt: ta on võimeline genereerima järgmist ja paremat mudelit endast ja muutub nii iteratiivselt järjest targemaks ja kalkuleerivamaks, luues nii iseend taas ja taaskord? Sellisel juhul muutub ka võimatuks no juhe seinast välja tõmmata, sest masin on suure tõenäosusega selleks ettevalmistunud ja loonud selliseks puhuks endale kaitsemehhanismi.

Sellisel juhul ei ole masina tarkus muidugi probleemiks, vaid pigem tekib oht, et masinad võtavad inimeste üle võimsust samal moel, kui inimene täna maailma kontrollib. Kas sellisel juhul muutub inimene ise robotiks roboti jaoks? Erinevad spetsialistid on siinkohal erinevatel arvamustel. Terah Lyon arvab, et me oleme ajajärgus, kus me loome maailma, milles me hiljem enam ise elada ei taha. Jaan Tallinn aga arvab, et tehisintellekti ühendus loob selle takistamiseks anti-liikumise, nagu näiteks juhtus 1940. aastal peale Hiroshima ja Nagasaki pommitamist.[11]


7. Rassistist robotid. Kuidas vältida erapoolikust tehisintellektis?

Üha sagedamini kasutatakse tehisintellektil põhinevaid süsteeme võtmaks vastu olulise tähtsusega otsuseid nii valitsuse kui ka eri ärivaldkondade poolt. Kuigi tehisintellekt suudab töödelda andmeid kiirusel ja kogustes, mis kaugeltki ületavad inimvõimed, ei ole need süsteemid alati ausad ja erapooletud.[1] Mida harilikumaks tehisintellekti poolt assisteeritud otsused muutuvad, seda enam suureneb oht laiaulatuslikuks sool, rassil või ideoloogial põhinevaks diskrimineerimiseks.[13]

Masinõppe mudelid põhinevad päriselulistelt andmetel. Kui need andmed juba sisaldavad teatud tunnusel põhinevat kallutatust, siis täpne mudel ainult võimendab seda eelnevalt eksisteerivat erapoolikust. Näiteks oli Florida kriminaalõiguses kasutuses mudel, mis tegi mustanahaliste puhul taasrikkumise kõrgesse riskigruppi klassifitseerimisel 2 korda suurema vea kui valgenahaliste puhul. Samuti on uuringud näidanud, et NLP mudelid, mille treenimiseks on kasutatud uudisteartikleid, võtavad omaks soostereotüübid.[12]

Õiglaste mudelite loomine on keeruline ülesanne, millega tegeleb eraldiseisev teadusharu. Alustades sellest, et õiglusel ei ole konkreetset definitsiooni ning mudeli disainil tuleks analüüsida, milline on oodatav õigluse eesmärk. Selle saavutamiseks saab rakendada erinevaid meetodeid - andmestikes eksisteeriva erapoolikuse tuvastamisest kuni mudeliteni, mis suudavad tehisintellekti süsteemi tulemustes esinevaid erapoolikusi tuvastada.[13]


8. Töötus. Mis juhtub, kui AI on inimeste töö üle võtnud?

Paljud inimesed, kes kuulevad sõna “automatiseerimine” või “tehisintellekt” mõtlevad paratamatult, kuidas see nende tööelu mõjutab või ohustab nad lausa tööta jätta. Eestis on tehtud mitmeid uuringuid inimeste arvamuse tehisintellekti ja tehnoloogia arengu kohta, kust selgub, et usutakse paljude ametikohtade kadumist aga samas ollakse kindlad, et nende endi ametikohta tehnoloogia areng ei mõjuta [14]. Kõige rohkem kardavad töö kaotamist teenindajad ja samas kui kõige kindlamad on töökoha olemasolus avaliku sektori ning tööstuse valdkonna esindajad [14]. Teenindusvaldkonna hirm töökohtade kaotamise ees on põhjendatud. Vaadates, millistes valdkondades on hetkel tehisintelleki enim kasutatud, siis teenindus- ja tööstusvaldkonnad on mõlemad esirinnas.

Enim levinud tehisintellkti kasutamise viisid praegu [15]: Tööstusrobotid: autode kokkupanek, sorteerimine. Vestlusrobotid: vahe ei saa inimene isegi aru, et räägib robotiga, kõik tundub nii inimlik. Virtuaalsed assistendid: näiteks Google Assistant, MS Cortana, Amazon Alexa. Assistendid ei mõtle ise vaid käituvad alguritmide juhendamisel. Masinõpe Kõnetuvastus ja kõnelemine:tunnevad ära inimkõne ja oskavad tõlkida tekstiks, vastata küsimusele. Masin-nägemine: nutitelefonid osakvad pildistada ja tunnevaid esemeid, isesõitvad autod.

Hoolimata paljude inimeste hirmust töökoht kaotada tuleb mõelda, et inimestele antakse monotoonse ja lihtsa töö asemel võimalus tegeleda oluliste ja tähendusrohkemate ülesannetega. Tegemist on ju järjekordse tööstusrevolutisooni edasiiviva jõuga nagu seda oli aurumasin ja hüdroenergia kasutusele võtmine, mis tagantjärgi vaadates ei tundugi nii hirmutava arenguna.


9. Tehisrumalus ehk inglise kl artificial stupidity. Kuidas kaitsa ennast AI tehtud vigade eest?

Terminit, tehisrumalus, võidakse kasutada kolmel erineval juhul [16]:

Esimene ja kõige otsesemalt mõistetav on kui tehisintellekt ei suuda täita etteantud ülesannet ja pole piisavalt tark: Üheks näiteks võib tuua kõige tavalisema juturoboti, kes kirjavigade olemasolul ei oska tuvastada sõnu. Selliseid näiteid on palju, kus AI on tegelikult ka rumal ega oska vastata lihtsamatele küsimustele. Tahtlikult rumalamaks tehtud tehisintellekt: See on täiesti erinev viis eelmisest. Nimelt on AI tehtu rumalamaks kui ta tegelikult on, selleks et paista välja inimlikum. Näiteks on juturoboti vastusesse pandud sisse trükivigu, et see tunduks inimlikum või videomängudes strateegia tehtur rumalamaks, et mängijal oleks päriselt ka võimalus võita. AI piirangud:võib viidata erinevatele AI piirangutelele. Näiteks puudub AI'l talupojamõistust või pole nad emotsionaalset intelligentsed ning neil on limiteeritud arusaam eetikas või moraalist. Viimasel juhul täidab AI antud käsud, ega hooli kas tegu oli eetiline või mitte, selleks tuleb teda eraldi programmeerda.

Kokkuvõte

Tehisintellekt on paljulubav tehnoloogia, mis on loonud väärtust paljudes valdkondades ning millel on mõju kogu ühiskonnale. Kuid see mõju ei ole vaid positiivne. Masinõppe mudelite tulemuste põhjal tehtud otsused võivad süvendada juba eksisteerivat diskrimineerimist. Automatiseerimise tagajärjel mitmed ametid muutuvad (üleliigseks), mis ähvardab suurendada lõhesid sotsiaalses struktuuris. Väljakutseks on ka turvalisus - tehisintellektil põhinevad süsteemid võivad olla haavatavad kuritarvitamisele ja teisalt on teoreetiline võimalus, et need süsteemid arenevad inimkontrolli alt välja. Seega tehisintellekti kujundamise protsessis on tehnoloogia enda arendamise kõrval oluline roll ka võimalike ohtude analüüsil ja ennetamisel.

Kasutatud kirjandus[edit]

1. Top 9 ethical issues in artificial intelligence. Julia Bossmann.2016. https://www.weforum.org/agenda/2016/10/top-10-ethical-issues-in-artificial-intelligence/?fbclid=IwAR1Vjg-nlR0aUd8GDRI8quzwCvulM6MU9wRCSvM58s0rZUNeoFmcpK5U9n8 (9.03.2020)

2. 8 Ethical Questions in Artificial Intelligence. Steve Kilpatrick.2018. https://www.logikk.com/articles/8-ethical-questions-in-artificial-intelligence/?fbclid=IwAR3dZmvES2YPrPzlXnn2OgjYw-GZxkj7mYlPUH4ibB6HTRoekayaCX-rntU (9.03.2020)

3. How Robots Could Set the Tone for Social Interactions. Irving Wladawsky-Berger.2019 https://cio.economictimes.indiatimes.com/news/strategy-and-management/ai-could-change-the-way-humans-interact/68923262 (16.03.2020)

4. Artificial Intelligence Will Do What We Ask. That’s a Problem. Natalie Wolchover.30.01.2020. https://www.quantamagazine.org/artificial-intelligence-will-do-what-we-ask-thats-a-problem-20200130/ (18.03.2020)

5. Meditsiiniteadlased: võimalus tapjarobotite keelustamiseks hakkab käest libisema. Jaan-Juhan Oidermaa. 2019. https://novaator.err.ee/923742/meditsiiniteadlased-voimalus-tapjarobotite-keelustamiseks-hakkab-kaest-libisema (04.04.2020)

6. Tehisintellekti ohud ja võimalused – 1. osa: digitaalne turvalisus. Martin Vaher. 2018. https://objektiiv.ee/tehisintellekti-ohud-ja-voimalused-1-osa-digitaalne-turvalisus/ (04.04.2020)

7. Tehisintellekti eetika ning robotite õigused. Elena Sügis. 2020. https://courses.cs.ut.ee/2020/Tehisintellekti_algkursus/Main/PARTIEetika (04.04.2020)

8. “The Impact of AI on Inequality, Job Automation, and Skills of the Future.” Michael Burkhardt, 2019 https://towardsdatascience.com/the-impact-of-ai-on-inequality-job-automation-and-skills-of-the-future-fe89c21e34bc (15.04.2019)

9. “The Real Threat of Artificial Intelligence” Kai-Fu Lee, The New York Times, 2017 https://www.nytimes.com/2017/06/24/opinion/sunday/artificial-intelligence-economic-inequality.html (24.06.2017)

10. “Inequalities and AI” Alex Moltzau, The StartUp 2019 https://medium.com/swlh/inequalities-and-ai-255c28a706d4 (14.06.2019)

11. “Can we stop AI outsmarting humanity?” Mara Hvistendahl, The Guardian, 2019 https://www.theguardian.com/technology/2019/mar/28/can-we-stop-robots-outsmarting-humanity-artificial-intelligence-singularity (28.03.2019)

12. “What Do We Do About the Biases in AI?” James Manyika, Harvard Business Review, 2019 https://hbr.org/2019/10/what-do-we-do-about-the-biases-in-ai (25.10.2019)

13. “Responsible AI Practices”, Google AI https://ai.google/responsibilities/responsible-ai-practices/ (03.05.2020)

14. “Eesti elanike arvates ei mõjuta tehnoloogia areng nende ametikoha püsimajäämist”, Kati Voomets, Swedbanki blog, https://kukkur.swedbank.ee/analuusid/uuring-eesti-elanike-arvates-ei-mojuta-tehnoloogia-areng-nende-ametikoha-pusimajaamist (26.09.2018)

15. “Mis on tehisintellekt - kas tõesti isemõtlev masin?”, Fujitsu koduleht,https://www.fujitsu.ee/mis-on-tehisintellekt-kas-toesti-isemotlev-masin/

16. "Do we need to worry about artificial stupidity?”, Think Automation, https://www.thinkautomation.com/automation-ethics/do-we-need-to-worry-about-artificial-stupidity