Ideemachine.nl
                                                                                                 

 

 

 

 

 

 

 

AI (kunstmatige intelligentie = Robots) aanvullende Wetten.

 

De wetten van Asimov

Iedereen die een beetje een toekomstvisie ontwikkelt, weet dat kunstmatige intelligentie - (naast de Aarde zelf) - een zeer belangrijke rol voor de mens gaat spelen. Sterker nog, alle SF-schrijvers of schrijvers die de hedendaagse maatschappij beschrijven kunnen niet meer om dit fenomeen heen. AI / Robots zullen zich bovendien in een razendsnel tempo verbeteren en ook meer en meer op mensen gaan lijken, omdat we nu eenmaal niet van Frankenstein-achtige figuren houden.

Zoals eerder aangegeven, is er al nagedacht over Robots in relatie tot robot-psychologie (gedrag) en ethiek (grenzen van dat gedrag) en dat heeft geleid tot de Robot-Wetten. (verzonnen door Isaac Asimov) Van belang - tot op de dag van vandaag zijn de Wetten (dwingende gedragsregels) redelijk onveranderd en nimmer betwist door recentere SF-schrijvers. Zelf meen ik dat de Robot-Wetten - ondanks de tekortkomingen ervan - het ultieme uitgangspunt moeten worden voor Robot-ontwikkelaars ten aanzien van zeer geavanceerde Robots. Een mega-klus, want dat betekent ook dat een Robot-brein nagenoeg de kwaliteit van menselijke hersenen moet benaderen. 

De vier opgestelde Wetten zijn:

0. nulde wet; Een robot mag geen schade toebrengen aan de mensheid of toelaten dat de mensheid schade toegebracht wordt door zijn nalatigheid. (Isaac Asimov; de Stalen Holen en ook in Robots en Imperium)

1. eerste wet; Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt, behalve als dit de nulde wet zou schenden. 

2. tweede wet; Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als deze in strijd zijn met de nulde of eerste wet.

3. derde wet: Een robot moet zijn eigen bestaan beschermen voor zover deze bescherming niet in strijd is met de nulde, eerst of tweede wet. 


-------------------------------------------------------------------------------------------------------------------------------------------

 

Mijn eerste gedachtegang hierover - Robots worden geproduceerd door mensen en - zoals ook gebleken is bij Volkswagen in 2015 - kan er geheime software in "het artikel" worden gestopt. Hoe dit aspect aan te pakken, zodat dit niet mogelijk is?

-------------------------------------------------------------------------------------------------------------------------------------------

 

Noodzakelijke Basis; een onafhankelijk testbureau bij de UN voor elke geproduceerde high-intelligente Robot.

(er zullen gradaties in Robots komen. Een Robot die eenvoudige arbeid verricht, hoeft niet te worden gecheckt. Dit dient echter wel te gebeuren bij elke Robot, die qua intelligentie, misbruikt kan worden voor niet gewenste doeleinden. Deze niet gewenste doeleinden moeten dus worden vastgesteld. Zo is het aan ons (middels de UN) om wenselijk te maken dat er intelligente Robot-soldaten worden gecreëerd.) 

UN-AI-R

 

De mensheid; de Robot moet zo geprogrammeerd worden dat het één mens als de gehele mensheid ziet. Immers, theoretisch kan één mens staan voor de gehele mensheid, indien deze de laatste mens is. Dit ter voorkoming dat de Robot gaat kiezen tussen de mogelijkheid dat de mensheid ten onder gaat of één mens die direct hulp nodig heeft. Dit aspect komt naar voren in de TARA-saga. 

 

De mens; De Robot dient te zijn voorzien van een sensor, welke de wolk van bacteriën (aanwezig rondom elke mens) kan herkennen als zijnde de bevestiging van de aanwezigheid van een mens.  

 

Einddoel; Een Robot dient altijd te worden voorzien van een vast einddoel of een vaste hiërarchie van doelen, die bepalend zijn voor de gebruiksmogelijkheden. 

(Een Robot die arbeid-verrichtingen doet, blijft immer een robot die dergelijke werkzaamheden doet.)

(Een Robot die uiterst intelligent is - en zodoende nagenoeg menselijk -, kan dus ten behoeve van zijn eigenaar allerlei werkzaamheden verrichten of opdrachten uitvoeren. Echter, indien de doelen vast zijn gezet, kan er nimmer misbruik van worden gemaakt)

  

Toegankelijkheid; Een eenmaal vastgesteld einddoel of Hiërarchie van doelen kan nimmer meer worden gewijzigd.

 

 

 

 

Minimale eisen voor een high-intelligent (bijna menselijke) Robot:

  • Visueel voldoende op gebied, ruimte, perspectief, kleuren, schaduwen, gezichtsherkenning.

  • audio voldoende op frequentie, pauzebelang, nadruk toon, stemherkenning.

  • Emoties van mensen herkennen en beoordelen, lichaamstaal beoordelen en passend reageren.

  • inlevingsvermogen ten aanzien van mensen en ook gericht op hiermee samenvallende toekomst-opties.

  • natuurverschijnselen herkennen en verbanden kunnen leggen hiermee.

  • motivatie van mensen herkennen en beoordelen.

  • koeling houdbaar voor machine en diens omgeving.

  • kunnen maken van diverse gezichtsuitdrukkingen.

  • spreken en gelijkgeschakeld aan emotie/gevoel van de ontvanger (mens).

  • Accu-en kracht energie level sensor.

  • een beslisvaardigheid hebben in relatie met een vaste hiërarchie (waarde oordeel / doelen).

  • loyaliteit tan aanzien van een vaste hiërarchie inzake opdrachtgever maar ook de doelen.

  • verwerken tegenstrijdigheden.

  • Anti boosheid eis ten aanzien van alles.

  • Anti superieurs gevoel ten aanzien van mensen.

  • Acceptatievermogen van gegeven opdrachten die hoe dan ook binnen de doelen/wetten vallen, maar ook als onwenselijk/onjuist zijn beoordeeld.

  • mogelijkheid tot tactvol reageren. ("afdoende en prettig liegen" voor bestwil).

 

Dilemma's (ook volgens Robotverhalen).

 

Mensheid/mens; De wetten zijn vooral van toepassing om de mens(heid) te beschermen. Maar wat is de mens(heid)? De problemen hiervan beginnen al bij de vaststelling van wat de mens is. Nu is dat ons volstrekt duidelijk, maar in de toekomst zullen mensen ook gedeeltelijk gerobotiseerd zijn. Blijft het dan een mens, of wordt het een cyborg, of een robot met menselijke eigenschappen?

 

Ik blijf erbij dat de 1e vaststelling van een mens voor een Robot het gemakkelijkste wordt door de bacteriën wolk die de mens bij zich draagt te herkennen. Deze schijnt uniek te zijn. (zie Volkskrant, 23 september 2015). Wie de mens is, is niet daarmee vast te stellen, maar wel dat het een wolk is die bij een mens behoort. Vaststelling wie de mens is, kan m.i. eenvoudig middels iris-scopie en gezichtsherkenning.

Een compleet mens, moet dus geen probleem voor de Robot zijn. Behalve als een dergelijke bacteriën wolk ook kunstmatig kan worden gecreëerd en bv in een spuitbus kan worden geplaatst. Bijkomend probleem; een pasgeboren baby heeft wellicht nog niet een dergelijke wolk om zich heen, omdat het darmsysteem nog onvoldoende met bacteriën is verzadigd.

Bij gevaar zal een Robot ook een keuze soms moeten maken. Is een zwangere vrouw te herkennen, als een zwangere vrouw? Mogelijk kan een Robot ook dan twee hartslagen horen. Op het dilemma "keuze maken bij gevaar" kom ik later terug.

 

Een cyborg - half mens - half robot, wordt al lastiger. Is de bacteriën wolk nog gelijk aan een mens? Of is deze anders en hoeveel anders? Niettemin kunnen we er van uitgaan dat de hersenen grotendeels menselijk zijn. Is er ook nog een andere toets aanwezig om te toetsen of de hersenen grotendeels menselijk zijn?

Stel dat het lichaam menselijk is, maar de intelligentie kunstmatig....of andersom, de intelligentie betreft een menselijk brein, maar het lichaam is compleet kunstmatig. Hier komen al meerdere problemen om de hoek. Menselijkheid zou m.i. vast liggen in het brein. Er vanuit gaande dat kunstmatige intelligentie nooit zover zal komen dat het niet van een menselijk brein kan worden onderscheiden. Hoe dan ook....nooit is een groot woord en het kan wel heeeel erg dichtbij komen!  

 

Letsel; Wat is nou precies letsel? Lichamelijk letsel of hoort er ook psychische schade bij. Als dat zo is, dan zou een Robot moeten voorkomen dat een mens iets traumatisch ziet. De mens kan immers PTSS oplopen. En om hoeveel letsel gaat het kan. Stel de Robot beschadigt de huid van een mens, een schaafwond dus....is dat nou letsel in de zin van de 1e Wet? Zo kan een Robot steeds in het nauw komen...gaat de schaafwond vóór een totale vernietiging van de Robot zelf?

En begrijpt de Robot het "niet handelen" wel? Dat is echt iets anders dan wel actie ondernemen. Het uitvoeren lijkt mij logischer voor een Robot dan andersom. Handelen en niet handelen staat ook in verhouding met bevelen uitvoeren (of juist niet). Lastig te programmeren.

(Op internet verscheen het bericht: uw zelfrijdende auto gaat u vermoorden.

Hier zit natuurlijk wat in. Immers, de auto-robot gaat een keuze maken tussen het aanrijden van een groep kinderen of uitwijken naar een betonen pilaar, waarbij A uw zelf het leven laat en/of B de auto (robot) total loss wordt.) 

Eigen bestaan: Wanneer houdt het eigen bestaan op? Bij schade alleen al, of als de Robot iets van zijn taak niet meer kan uitvoeren. Of moet het zo zijn dat de Robot onherstelbaar is geworden?

 

Een bevel: Wat is nu een bevel? Een zin, een woord of slechts een gebaar?

Voor ons mensen is dit duidelijk. Zelfs een knikje kan worden opgevat als een bevel om iets te doen of juist niet. Voor een robot is dat niet zo eenvoudig. Een knikje moet worden getoetst. Was het een knik naar de robot toe gericht, alleen voor hem/haar of zomaar een zenuwtrek? Wellicht moeten er gradaties in robots worden aangelegd, die zichtbaar zijn voor de mens. Robot 100 = eenvoudig...de serie 200 al meer geavanceerd en een 300 serie kan mondelinge en schriftelijke bevelen toetsen. Een 400 serie kan complexe bevelen opvolgen enz enz.   

Hoe dan ook....gezichtsuitdrukkingen met gebaar of juist alleen een gebaar zonder gezichtsuitdrukking (bv een stopteken gegeven door een agent, maar met de rug naar de agent toe) zijn complex. Nog afgezien dat sommige tekens ook nog eens cultureel bepalend zijn. In China zegt met vaak nee op een vraag, maar bedoeld men een ja. Menselijk gedrag naar de Robot toe, wordt één van de lastigste in te bouwen structuren.

Een mondeling of schriftelijk bevel lijkt duidelijker aan te leren. Toch zullen daar ook afspraken in moeten worden vastgelegd. "Ga eens weg". Lijkt eenvoudig, de robot moet plaats maken. Maar deze robot kan het ook impliceren als helemaal weg gaan (uit het zicht van de bevelgever). Het is dus vooral ook de bevel-gever die afspraken op dit gebied moet nakomen. Ik pleit voor een universele robot-aanspreek code.  

Tot slot, zijn natuurlijk de wetten van belang. Het mag niet botsen en het moet volstrekt duidelijk zijn wie de leiding heeft op meerdere gegeven bevelen.

De hiërarchie is een probleem. Gaat een kind voor een volwassene? Nee, maar als dat kind nu bescherming wil tegen een volwassene? En wanneer acht de robot een dergelijk kind oprecht of met genoeg inzicht om de consequenties te weten? Een robot zou aldus in ieder geval de mogelijkheid moeten krijgen om te toetsen met extra door-vragen op de gegeven vraag. Maar hoelang mag de robot daaraan besteden en is een dergelijk proces te vermijden? Zoals ook "help" voor de mens bestaat, moet ook voor de robot zoiets dergelijks gelden. Misbruik van de robot ligt echter op de loer. Tot slot wordt het een normaal verschijnsel dat een robot een bevel geeft aan een andere robot. Ook daar schuilen gevaren. Immers, Robot X geeft bevel aan Robot Y, ten behoeve van de heerser over Robot X. Moet Y dit uitvoeren, indien het zijn eigen heerser benadeeld?

Conclusie.....(voorlopig); wellicht is deze materie gewoon te complex voor een Robot en zou er afgebakend moeten worden. Ethische verantwoordelijkheid zou niet ! bij de robot moeten worden gelegd. Grenzen aan deze materie moeten worden vastgelegd in een wereldwijd protocol.

 

Zeer interessante link m.b.t. positronic brein.

http://www.extremetech.com/extreme/225707-ibms-resistive-computing-could-massively-accelerate-ai-and-get-us-closer-to-asimovs-positronic-brain

 

tot zover, maar wordt vervolgd.

 

 

 

 

 

 

 

 

 

 

 

E-mailen
Map
Info