Tere eetris on portaal, tehnoloogia kommentaari esitab Kristjan Port. Kui robotid tegutsesid väljamõeldud maailmas, olid ka probleemid väljamõeldised ning väljamõeldis ei pidanud kartma, kuna need olid ju mõttekujutelmad fantaasia, luiske lood. Robotid omakorda olid ja on taolise arvustuse suhtes immuunsed, sest neid vajab fiktsioon eksisteerimiseks. Sega paistsid robotid, reaalsetena ja ohud imaginaarsetena. Nyydomineeriski veendumus, et ühel heal päeval on robotid kindlasti olemas. Aga need probleemid, noh, need on puhas spekulatsioon, mida keegi tegelikult ei tea. Isegi kui ulmekirjanik Isaac Asimov sõnastas kunagi robotitele mõeldud reeglid, käsitleti seda kui. Intrigeerivaid mõttemängu kirjanduslikku klienti põneva loo koostamiseks. Nende järgi ei tohtivat roboti inimesel viga teha ega oma tegevuse või tegevusetusega lasta inimesele halba juhtuda. Masin, inimene peab täitma bioloogilise inimese käske, tehes erandi. Ta on vastuolus eelmise seadusega, see tähendab robotit ei saa sundida inimesi tapma. Lõbuks pidanuks roboti enese eest hoolt kandma sedavõrd. Ta ei lähe konflikti eelmise kahe seadusega, see tähendab robot ei saa end remontida inimest ohustades. Nagu öeldud, olid need reeglid vajalikud fantaasiamängudeks. Kui tõsisemalt järele mõelda, siis sokutab Asimov vastutuse robotile, sest distsiplineerimatu oleks robot, kusjuures robotilt eeldavad kirjeldatud reeglid kõrged inimesega sarnaselt. Intelligentsust ja jällegi fantaasias on ju see lihtne ära teha. Tulles aga need pärisellu ja nüüd, kui inimene ongi hakanud keerukama käitumisega roboteid valmistama tõstatub robotite reeglite küsimus tõsieluliselt päevakorda siingi keskseks küsimuseks vastutus. Me veel ju ei näed, masinad on piisavalt intelligentsed, eristamaks inimeste käskudes midagi halba, mistõttu vastutus langeb roboti loojale inimesele. Näiteks kui robot teeb ravivea või sõidab autonoomne sõiduk otse teisele liigikaaslasele otsib kohtunik ju inimesest süüdlast. Euroopa liidus algatati kevadel intrigeeriv algatus, tänu millele hakkab tasahilju moodustama rida, mis algab sõnadega. Õigus, meil on ju olemas nüüd õigus olla. Unustatud, et otsimootorite robotite mälust saaks kustutada otsimise mugavust kannatava isikuandmed. See katusel tahab nõuda õigust aru saada ehk mõista, miks jõudis mõni intelligentne masin just sellise otsuseni näiteks raviprotsessi kasutatud neuraalse kui põhimõtteid rakendama nõndanimetatud süvaõppiv masin peab oskama seletada, kuidas jõudis oma raviga seotud otsuseni. Neurovõrke kasutatakse tulemuslikult paljude keeruliste probleemide lahendamisel. Ainukene häda inimese jaoks on see, et keegi õigesti ei teagi, kuidas selline süsteem oma vastuse saab. Ja mõnikord on saadud vastus erakordselt huvitav. Ümberöelduna siis ootamatu ja ohtlik. Ning seetõttu ei saa süüd rajada masinale vaid see siirdub arenguniiti pidi ikkagi inimesele. Kõike seda arvestades koostas briti standardite instituut esimesed kaasaegsed ametlikud robotite reeglid eesmärgiga luua eetiliselt argumenteeritud raamistik robotite loojatele. Ideestik, kust saab aimu sissejuhatavas osas, kas toodud põhimõtetest, mille järgi ei tuleks valmistada roboteid, mille ainukeseks esmaseks eesmärgiks on inimeste tapmine. Vastutavaks objektiks on inimene, mitte robotid. Ja iga robot. Ülevalpidamise osas peab olema võimalik tuvastada, kes ele sellisena valmistas. Robot ei tohiks ka kedagi petta, näiteks ei tohi pettuda. Teise inimese robotit kukkuma kanalisatsioonikaevu Luisate inimestele midagi, mis ei ole tõsi. Või jäta vastastele mulje, et tal on laskemoon otsas. Noh, näete, selles viimases küsimuses võib ju vaielda, sest vastase surmamisele leitakse ju alati. Mingi moraalne õigustus küll aga ei tohiks robot peta lapsi ega muutuda neile liiga meeldivaks sest inimestes võib tärgata kiindumus masina vastu sarnasele järeldusele, pidades silmas nende rohkem täiskasvanud elanikkonda, jõudis viie aasta eest ka Euroopa robotite uurimise võrgustikku euroni juht Henrik Christensen, kelle arvates ei tohiks robotid olla seksuaalselt atraktiivsed. Inimlikult ilusad. Ja pange tähele, probleem on inimestes, mitte robotitest.