Tere eetris on portaal tehnoloogia kommentaari esitab Christian Burt. Tokyo ülikoolis uuriti probleemsed 60 aastased patsienti, kellel oli kuue aastast diagnoositud verevähk. Ta sai ravi ja oli elus üha halvenevad tervisega. Arstid ei saanud aru, mis võis olla halva olukorra põhjustajaks, sest sama ravi oli tavaliselt edukas. Patsiendi andmed. Koos geenikaardiga erastati inimesi laua ja mälumängudes võitnud. IBM nutikale arvutile Watson tehisliku mõtlemisega raal tõdes, et arstid olid ühes elemendis eksinud. Patsiendil oli lisaks tuvastatud leukeemia le sama haigus veel teises geneetilises vormis. Haige ravi muudeti ja tema olukorda ja valt asjaolusid analüüsiva Masina mõtlemine sobis antud probleemi lahendamiseks paremini kui koolitatud arstide oma. Sisestades Google'i otsingureale inglisekeelsed sõnad, kas holokaust toimus, pakub masin esimeseks vastuseks, et tegemist on väljamõeldis ega juutide konspiratsiooniga ja nii edasi. Ausalt öeldes saab sarnaseid vastuseid isegi eesti keeles. Kuidas nii? Kas Google pole kuulnud tahaust ja teistest koonduslaagritest miljonitest gaasikambritest tapetud ohvritest või Oskar džinlerist? Kärol kad, vallader ajalehest Guardian imestab taolise tulemuse üle ja märgib, kuidas paljude jaoks esmane ja ainukene infokeskkond Küll mõjutab ning meerida ohtlikult inimese maailmapilti. Peamiselt ekraanide kaudu leviva väära informatsiooni mõjuvõimule on tänu Brexiti, USA presidendivalimiste ja maailma üldiselt pingestavate asjade seisu tõttu hakatud tõsiselt mõtlema. Valeinfo levikut põhjuste seas esineb nii. Kuritahtlikku kavatsust kui arvuti süütut ruudust talle teadaolevate andmete suhtes. Olukord on paradoksaalne, arvestades masina paremust inimeses ebatavalise haigusseisundi diagnoosimisel. Ja samas eksitades teda näiliselt lihtsas, aga palju suurema sotsiaalse mõjuga faktide osas. Ühendseletusena kahtlustama. Taksed Neonatsistlikud organisatsioonid on õppinud Google'i salajasi algoritme tüssama. Tõenäoliselt on vastus lihtsam ja süü asub pigem infot otsivate inimestes inimestes, kes peavad masinat objektiivseks mõttetusest emotsioonidest vabaks faktide kaalujaks. Christian hämanud dekrantsist kirjeldab, miks see on kole eeldus. Alustada võiks kasvõi küsimusest, kas masin. Peaks arvestama etteantud andmetest välja jääva maailmaga või siis mitte. Esimene siis sarnaneks inimesele, kes kasutab otsustamise protsessis kõike, mida tema teab. Aga see muudaksime masinad tujukaks subjektiivseks, see tähendab, et tulemus sõltub sellest, mida ta veel teha. Inimesena eeldama vaikides, et algoritme see beseedi bot, seda, mida talle on ette antud lootes, et nii tagatakse objektiivsus märkamata samas, kuidas sisendiks esitatud andmed kallutavad masina otsuseid. Näiteks just äsja hülgas Uus-Meremaalt passiosakonna nutikas süsteem kohaliku isiku passipildi nõude seto hoiaks pildil silmad lahti. Aga seda ta tegigi, kuid tarkvara oli õpetatud nägusid ära tundma. Vähem loomultki silmadega. Piltide põhjal analoogseid juhtumeid esineb fotoaparaatide nutikaks peetud nägude eristamise tarkvaras ja tõenäoliselt jääb etteantud andmetele rajatud tark. Paratõttu, kellel klipp pangas, laen saamata, kindlustus on ebaõiglane ja muud taolist. Kusjuures paljudest taolistest vigadest ei saa. Keegi teada, nutikamad süsteemid, aga püüavad õppida, õpitakse vigadest kui puutudes kokku erinevate juhtumitega Korrigeerib süsteem oma parameetreid ning seisundeid. Paraku on siingi õppimine sõltuvuses sisendist. Microsofti tehisintellektile rajatud virtuaalne Online persontai muutus lühikese ajaga viisakas tüdrukust. Poliitiliselt ebakorrektne seks ja vägivaldseks rassistiks. Põhjuseks oli vestluskaaslaste, see tähendab päris inimeste halba. Õpetav mõju. Holokausti näide on sarnane, sest vägivaldsed võõravihast juhitud äärmuslased on reaalsus nagu seda on ka nende levitatav väärinfo. Kas nende olemasolu peaksid otsingutes varjama? Ilmselt mitte. Küll aga peaks masinaga suheldes arvestama, kuidas küsimus kujundab vastust. Alustades päringut sõnaga holokaust, pakub Google vastuseks ajalooliseks. Fakte aga alustades sõnadega, kas holokaust otsib Google, aga vastust lähtudes küsija kahtlustest ja talle pakutakse teistsugust ning tegelikkusega vastuolus sisu tõe üle, otsustajaks. Jäägu ikkagi inimene, kelle jaoks on otsingumootor infot tarnib tööriist, mitte valmis vastuste keskkond. Paraku Karlini loost ilmneb, et Google'i pakutud otsingutulemuste esimesse lehekülge suhtutakse üha enam kui tõe allikasse. Seega masinale omistada. Sest lihtsalt peegeldus inimese enda subjektiivsest kallutatusest.