Ideemachine.nl
                                                                                                 

 

 

 

 

 

 

 

ANALYSE van ROBOT-verhalen van Isaac Asimov in chronologische volgorde.

 

1. Vroege werken deel 3.

 

 

verhaal - Doodvonnis.

 

 

doodvonnis ; In dit verhaal wordt verwezen naar een planeet, ver weg, zonder toezicht van mensen, die alleen en alleen bezet wordt door Robots. Dit verhaal uit 1942 lijkt een eerste voorzichtige keuze voor het latere boek en zeer uitgebreide verhaal, Robot-city (zes delen).

Hoe dan ook, het interessante uit dit verhaaltje is het gegeven dat Robots ook zichtzelf kunnen leren. Dat lijkt mogelijk, maar dan moet een Robot feitelijk ook of alleen bevelen van andere Robots accepteren. En welke Robot bepaalt wat goed of fout is?

Maar...is het een optie....Robots die zelf leren? Wat zijn de gevaren? Heel goed mogelijk is - zonder toezicht - dat een totaal fout iets, als algemeen goed wordt aangeleerd. En is eenmaal slecht of onjuist gedrag dan nog wel af te leren? Dit is een aspect wat meegenomen moet worden in de programmering van Robots, indien deze samen gaan werken of van elkaar gaan leren. Beste optie lijkt dan toch een super Robot, die andere Robots leert en behoedt voor afwijkend gedrag. Een voordeel is wel dat snel vele Robots iets kunnen worden geleerd. Alhoewel....als je de ene kan programmeren, waarom de anderen dan ook niet? NB ; de Robots op die planeet blijken later wij mensen te zijn....leuk bedacht, maar feitelijk niet eens ver van de realiteit....wie zegt dat wij geen ultiem goed geconstrueerde lego-bouwstenen annex atomen zijn met een positronisch brein???

 

2. De Totale Robot.

 

 

Verhaal; Sally

- Snelwegen die alleen voor Robot-auto's zijn. (zou me niets verbazen in de toekomst)

- Zelfrijdende bussen (omdat de robot-auto te duur is) worden gemaakt door de industrie t.b.v.de forens en zijn succesvol. (tip voor ondernemers)

- parallel met Christine van Stephen King. (de Robot beschermt zichzelf tegen de mens en zweert samen met anderen) Hier is nog geen sprake van de Wetten van Asimov.

 

Verhaal; Op een dag.

- een robot als bard (muzikant en verhalen verteller).

- programmeren kan iedereen (uiteraard een basisvak op de lagere school), maar het gaat om de juiste vraag en antwoord in te voeren en dat kan niet iedereen.

- mensen worden zodanig lui dat basiskennis wordt vergeten, zelfs rekenen en schrijven. Alles gaat verbaal naar een robot toe en het antwoord komt verbaal terug.

NB - uiteraard moet niet worden vergeten dat verouderde robots worden afgedankt, maar des te leuker zijn als we zo'n 50 jaar verder zijn. Collector-items.

 

Verhaal; Gezichtspunt.

- een supercomputer lost alle problemen van de wereld op. Alleen men begrijpt niet al zijn antwoorden. = parallel met The hitchhikers guide to the Galaxy waar de mensen het antwoord 42 krijgen op de ultieme vraag.

- interessant gegeven.....kan een robot zich gaan vervelen of overwerkt raken en expres daarom fouten maken?

 

Verhaal; Denken.

- Opmerkelijk...een laser die in de hersenen kan werken, zonder te beschadigen. (NB dit verhaal is volgens mij ergens rond 1945 geschreven!)

- Een Robot/computer die gedachten kan opvangen en ook weer door kan transporteren. Zodoende wordt telepathie een realiteit. Interessant voor geheime diensten...woordeloos met elkaar communiceren of gedachten van anderen opvangen. (ook t.b.v. psychologie).

 

Verhaal; Ware liefde.

 

- Een computer/robot heeft toegang tot een enorme database en selecteert op verzoek van zijn meester een vrouw. (NB - mijn inziens heeft de computer van Facebook ook inmiddels een dergelijke database!)

- de vrouw wordt geselecteerd op uiterlijk, karakter, leeftijd, kleur haar, woonplaats etc. etc.

- hierna nodigt de robot "perfecte" vrouwen uit tot een niet te missen kans, een sollicitatie bij zijn meester.

- Dit verhaal geeft direct te denken! Allereerst de toegang tot een enorme database. Wie geeft de of een grens aan? Er zullen daarin echt selecties moeten worden gemaakt op basis van basiskennis, zelflerendheid en vooral het begripsvermogen (inzicht oorzaak en gevolg) van de robot. Gelimiteerde toegang autorisaties dus.  

Datingsites werken op vrijwilligheid, maar manipulatie van dergelijke systemen ligt ook op de loer. Zou een dergelijke geavanceerde robot ook kunnen hacken???? Vast wel, maar mag het ook? Is dat ethisch verantwoord, nee.....dus....Maar hoe belet je dat dan weer? Kunnen we wel weten dat de Robot hackt? Hier komt ook het aspect eerlijkheid/liegen om de hoek.

- De wetten vermelden ook het aspect schade. Diefstal van privacy = mijn inziens ook schade. Als we dit aspect erbij betrekken, dan worden de wetten zelfs mogelijk onuitvoerbaar. Immers, niet valt uit de sluiten dat bij het opvolgen van een eenvoudig bevel, de privacy van een ander wordt of kan worden geschaad.

Een simpel voorbeeld. Een robot krijgt het bevel om de kamer van een hotel te openen, bv voor schoonmaken. De robot klopt netjes of geeft het aan. Geen gehoor. In de kamer is een vrouw in haar ondergoed en slaapt en wel met een knuffeltje. (omdat het om een volwassen vrouw gaat, wil zij dit gedrag niet aan iedereen laten weten). De robot ziet dus iets, wat de vrouw niet wenst. Zij vindt dat haar privacy is geschaad. De robot heeft dus achteraf onrechtmatig en in strijd met de wet gehandeld! Hoe dit op te lossen? De vrouw kan de robot een bevel geven om een gedeelte van zijn geheugen te wissen of iets volstrekt geheim te houden. Is dat allemaal wel te doen? Hoe dan ook, het geeft aan dat de praktische uitvoering van de wetten te complex te kunnen zijn of worden om ze zelfs maar in te kunnen voeren.

 

Verhaal; Robot AL-76 verdwaalt.

 

- een robot verdwijnt uit de toezichtzone. (ontsnapping, diefstal of per ongeluk?) Een GPS robot tracking systeem lijkt noodzakelijk.

- Deze Robot, gemaakt voor omgeving X , komt terecht in een hem of haar totaal onbekende omgeving Y.

Bv een industriële robot gemaakt om een auto in elkaar te zetten, komt terecht - als beveiliger - voor een belangrijke deur van een gebouw. Zal de Robot reageren op het bevel niemand door te laten? Ik weet het niet?

Moet worden ingebouwd dat - in dat geval -  de robot helemaal blokkeert? of gedeeltelijk? Of moet de Robot zelf actie ondernemen om dit probleem op te lossen? Vragen die niet eenvoudig zijn op te lossen.

 

Verhaal; Overwinning onopzettelijk.

 

- Robots worden gebruikt voor ruimtereizen. Logisch want ze hebben geen last van langdurige gewichtloosheid, gebrek aan zuurstof en eten, een giftige omgeving etc. etc. (Tip voor NASA)

Mee rekening te houden: zoals een buitenaardse cultuur niet weet of een robot een authentieke bewoner is van Aarde, kunnen wij ook niet weten of onze bezoekers (mochten die ooit terugkeren) Robots zijn of juist authentieke bewoners van planeet X !!

 

Verhaal ; lichtvers.

- Een Robot is verkeerd afgesteld en kan juist daardoor kunstobjecten maken.

Mag een Robot verkeerd zijn afgesteld of moet er altijd controle hierop zijn? en hoe bevestig je dan dat de robot niet helemaal goed is? Keurmerken, waarborgen...het zal er komen - indien de eerste fout leidt tot ellende. Net zoals in het echte leven zal het worden dat er pas aanpassingen komen als het leed al is geschied. Een lang leerproces dus voor de mens met zijn of haar Robot. Ik voorspel ook een Universeel wereldwijd controle instituut (UN Robot Control) die dit proces gaat coördineren.

Robots zullen ook zo geavanceerd worden dat kopiëren van Kunst (beelden, schilderijen) een koud kunstje wordt. Zoals nu al in China dergelijke kopieën worden gemaakt, die van uitstekende kwaliteit zijn, kan een Robot echter nog veel meer ! De exacte kleurmenging bijvoorbeeld of inzicht in het aantal lagen over elkaar. Ook zal de scherpte van lijnen etc. veel beter zijn. voorstelling....ooit hangt er een kopie van de Mona Lisa en niemand die het merkt.....

Over kunst gesproken.... (zie artikel Volkskrant voorpagina van 17 maart 2016, van Arnold Grunberg.

Hier wordt melding gemaakt van een zelfstandig werkende Robot, die - zonder consequenties - de wet overtreed. Wat nu als een Robot een beroemd schilderij namaakt en deze - zelfstandig - verkoopt als zijnde echt? Welke wet overtreed de robot dan? Is zijn meester of meesteres strafbaar? Moeten alle strafbare feiten ook worden ingebouwd (geprogrammeerd) zodat de Robot deze niet kan overtreden. En welke wetten dan? Die van land X of land Y ?

 

Verhaal; de racist.

- Mens en Robot zullen naar elkaar toe groeien tot misschien zelfs een nieuwe soort ontstaat, de Cyborg. Immers, een robot zal menselijker willen worden (zie het boek en de film, Bicentennial Men) maar een mens zal ook Robotachtiger willen worden, sterker, slimmer, mooier. Zullen er grenzen worden vastgelegd ? en zal er ook niet een soort van Übermensch ontstaan, een (rijke) Elite, die beter is en ook langer leeft. Ik voorspel dat ook dit werkelijkheid gaat worden met alle gevolgen van dien. Niet uit te sluiten is dat machtige, lees rijke, mensen zich zullen laten ontwikkelen en tegelijkertijd zich zullen laten beschermen door Robots. Enclaves van deze elite zullen ontstaan. Door de groeiende verschillen tussen Elite en de rest van de mensheid, ontstaat tweespalt en strijd....onvermijdelijk!!! In die zin is de film waarin een dergelijke elite zich verplaatst - buiten de Aarde - niet eens zo ver van de werkelijke toekomst verwijderd.

 

Verhaal; Robbie (het ultieme Asimov verhaal, een klassieker)

- Robbie is een speeltje van een klein meisje. En wel één die emotioneel bindt.

- het vertrouwen is er echter nog niet, maar dit is onterecht, zoals later blijkt.

De 1e wet en voor het eerst de robot-psychologe, Susan Calvin, worden elementen van I Asimovs verdere verhalen. Opmerkelijk is dat I. Asimov kennelijk al vroeg heeft voorzien dat Robot-psychologie een rol gaat spelen.

Hoe dan ook, in dit verhaal komt het hierboven beweerde ook tot uiting, de evolutie van de mens in relatie met de Robot.

- Evolutie Mens en Robot: Eerst plezier, dan ongeloof, daarna nuttig, voorts ook vrees en tot slot een samensmelting of een vernietiging van de Mens, dan wel de Robots.  Immers, mocht het zover komen dat de Robots ten nadeel worden van de Mens, zal de Mens ze vernietigen, als dat nog kan.....

 

 

Verhaal; Als we bij elkaar komen.

Verhaal omtrent een androïde (een op een mens gelijkende robot), voor het eerst gebruikt door Karec Capek (1920).

De koude oorlog is nog immer gaande. Robots worden wapens en Androïden vooral spionnen. Een Androïde is bijna niet van een mens te onderscheiden.  

Wat mij in dit verhaal bezig houdt...hoe is het verschil tussen mens en Androïde te ontdekken?

opties....

- Röntgen.

- gedrag bepalen....een androïde zal namelijk niet veel om drank, sigaretten, seks, empathie en humor geven. Althans minder of anders.

 

Verhaal; Spiegelbeeld

Allereerst de opmerking dat vooral mensen zich niet zullen houden aan de Robotwetten.

Verder speelt beleefdheid een rol. Hoe maak je dat zo menselijk mogelijk? of is het gewoon overbodig voor een Robot?

In dit verhaal liegt een Robot ter bescherming van de reputatie van zijn meester. Hier komt een belangrijk aspect naar voren. Moet er een meester voor een Robot worden aangesteld of dienen ze ter nut voor elke mens. In het 1e geval, gaat een bevel van een meester altijd voor! in het 2e geval kan iedereen - ongeacht de kosten die gemaakt zijn - een bevel geven aan een Robot. Wellicht wordt het optie 1, aangezien voor niets alleen de zon opgaat.

Het schaden van een reputatie = dus ook letsel, conform wet 1.

Maar.....wat als daarmee de reputatie van een ander wordt geschaad (door te liegen)? (wellicht op bevel van diens meester). Dat botst!

Volgens mij wordt dit één van de lastigste aspecten van de Robot-psychologie. De waardenverdeling/toetsing tussen bevel en Wet in relatie met een meester of eigenaar. Mijn inschatting is dat de Robot op hol kan slaan, omdat hij niet de consequenties goed kan overzien. Bovendien zal een Robot veel verder door kunnen denken qua mogelijke problemen, dan een mens. Gaat een Robot risico's nemen? Vast niet. Waardoor het heel goed mogelijk wordt dat een geavanceerde robot in combinatie met de drie/vier Wetten gewoonweg praktisch NIET werkt!

 

Verhaal; Jubileumincident

Een Androïde als dubbelganger voor de president van de USA. (niet ondenkbaar)

Overigens komt hier het element Dead Star (laatste Star Wars film) als idee globaal naar voren. Maar dit ter zijde.

Maar stel, de echte president wordt vermoord en de androïde blijft over! Hoeveel mensen zullen die wetenschap hebben......weinig vermoed ik. Alleen aan het gedrag, geen seks etc. zal men kunnen bepalen dat de Androïde inmiddels de president is geworden. Ook hier ligt een gevaar. Hoe menselijk MAG een Androïde worden? (dit aspect speelt uiteraard ook een grote rol in het boek Bicentennial man, zie ook de geweldige film met Robbie Williams, waar een Robot via androïde tot mens wordt verklaard.)

Dit soort vragen komen ook te liggen bij een universeel Robot instituut. (UNRobotControl)

Een andere vraag die naar voren komt; Indirect doden van een mens is ook niet conform wet 1.

Wederom komt de risicoanalyse van de Robot naar voren, waardoor deze niet goed zal functioneren. Hoe op te lossen om toch A Robots te maken, die B intelligent zijn en C, ten behoeve direct contact en nut met de Mens zijn gemaakt. De wetten alleen lijken incompleet. Grenzen in het doordenken moeten worden bepaald of....accepteren dat de Robot een bepaald bevel niet zal uitvoeren!

Nog een zeer belangrijk punt in dit verhaal; Stel de Robot moet één mens doden om te voorkomen dat er twee of meer of veel meer worden gedood?

Dit dilemma is groots....en er is vast al meer over gediscussieerd.

optie 1 - accepteren dat de Robot geen rol speelt en dus niet zal doden. Dilemma opgelost.....maar dit betekent dat een grens wordt ingebouwd en dat zal leiden tot minder intelligente Robots dan wellicht gewenst.

optie 2 - de robot voert het bevel uit (of op eigen titel). Hier liggen dus de grote gevaren....kan de Robot inzien dat het leven van een kind belangrijker is dan bv de dood van een 90 jarige. En wie heeft voorrang, een vijftienjarige ten opzichte van een zestienjarige??? Een enigs kind t.o.v. twee broers? etc. etc....

Inzicht is ook belangrijk. Zou een politie-Robot het bevel van een gewapende jonge man opvolgen - die hem mededeelt dat juist hij in gevaar is (en dus de rol van slachtoffer aanneemt) - , terwijl deze jongen bv net een aantal leerlingen (als dader) heeft gedood? De robot moet dan kunnen inschatten dat deze jongen geen slachtoffer is die zichzelf wil beschermen, maar juist de dader is! Voor een mens is dit al moeilijk. Ik kan me voorstellen dat een normale politie de jongen direct oproept om zijn wapen neer te leggen of hem zelfs direct neer te schieten......maar een politie-Robot zal mogelijk het bevel van de jongen opvolgen hem (eventjes) met rust te laten om de situatie te toetsen. Dit laatste ....eventjes toetsen van de situatie..... is wel cruciaal en beslist over leven en dood (van de Robot zelf of voor andere leerlingen).  

Te complex voor woorden allemaal. Feitelijk zouden we nooit moeten toestaan dat een Robot een dergelijke keuze moet of zal maken. Maar ik ben bang dat de geavanceerdheid van de robot sneller zal gaan dan de implementatie van grenzen of wetten.  

 

Verhaal; Dronken Robot.

Ten 1e wordt er een globale evolutie van Robots beschreven, eerst "slaven", daarna alleen direct bestuurbaar door mensen en tot slot zelfstandige Robots. (ik mis bestuurbaarheid door centrale computer)

Enfin, de robot gedraagt zich "dronken" omdat er een conflict is ontstaan tussen 2e en 3e wet. De Robot is zeer kostbaar en moet zichzelf beschermen, maar moet ook een bevel opvolgen (wat leidt tot vernietiging van de robot). Eigenlijk zou dit aspect nooit een rol moeten spelen....de 2e wet gaat gewoon voor! ongeacht de kosten. toch kan ik mij er iets bij voorstellen. Stel de Robot is ten nut van de gehele mensheid....dan wringt er toch iets. Wellicht komt in dat geval de nulde wet wel in werking?

De oplossing voor het probleem in het verhaal is simpel. De mens zorgt dat de 1e wet op de voorgrond treedt en zodoende wordt de storing opgelost.

 

Verhaal; Logica.

In dit verhaal worden nieuwe (soort) Robots getest. Al snel volgt er een groot probleem. De Robot is zo geavanceerd dat hij niet gelooft dat een simpele mens hem gemaakt kan hebben. Daarom aanvaart de Robot alleen de supercomputer aan bood als zijnde zijn meester. De Robot verklaart zichzelf als profeet (ten aanzien van de lagere Robots). Al met al heeft de Mens niets meer te zeggen.

Vragen van mijn zijnde;

1. Kan een Robot uiteindelijk bewust worden van zichzelf?

2. Weet een Robot waarom de mens belangrijk is? En zou dat moeten? (de wetten worden ingebouwd, maar een motivatie ontbreekt)

3. Welk recht heeft de mens ten opzichte van een zeer geavanceerde Robot?

 

Dit verhaal is een 1e beginsel ten aanzien van Bicentennial men, waarin de evolutie van Robot naar Mens in beeld wordt gebracht.

1. Een geavanceerde Robot zal geen zelfbewustzijn ontwikkelen in de vorm van een "menselijk IK", maar wel handelen daarnaar. Zodoende kan het bij zeer geavanceerde Robots het lijken dat hij een "Robot-IK" heeft, maar dit is altijd schijn.

Redenatie: Een menselijke IK is vrij van handelen en zal bovendien in staat zijn om buiten de lijnen te kunnen denken (zoals ik nu doe). Een creatief kunstwerk wat een Robot zal maken, is altijd een uitvloeisel van bestaande of historische kunstvormen of een afgeleide daarvan. Een verklaring voor het kunstwerk zal de Robot niet kunnen geven. (Wat een kunstenaar bv in de moderne art wel kan!)

Toch zal de Robot-IK problemen geven. We hebben al gezien dat Robbie (de Robot-hond) emoties kunnen oproepen, zodat de mens uiteindelijk - zelf vindt - (en dat is wat anders wat de Robot zelf vindt !) - dat de Robot een IK heeft. Moeten we daar wat aan doen.....nee, want problemen in de aard van dienstbaarheid zal het mogelijk nimmer geven. Komen we weer terug bij de essentie van dit verhaal; logica.

2. Indien de Wetten worden geïmplanteerd, zal m.i. het noodzakelijk zijn om het aspect Mens als belangrijkheid ook aan te geven. In het verhaal van Logica gaat het mis, omdat deze Robot niets weet van de Mens. Dit lijkt mij ongeloofwaardig. Een geavanceerde Robot zal eenvoudig de hele geschiedenis van de Mens tot zich kunnen nemen in een zeer korte tijd.

Blijft staan......waarom zijn we eigenlijk zo belangrijk? Technisch gezien is de Mens zelf ook een Robot.....opgebouwd uit hele kleine elementen, die met elkaar samenwerken. Wat ons anders maakt, is louter ons creatieve denkvermogen en de mogelijkheden tot het hebben van emoties, zoals verliefdheid, haat. Even terug....onze belangrijkheid zal moeten worden aangegeven in het feit dat wij de Robots hebben gecreëerd en - vooralsnog - heerser zijn over het heelal. Daarbij is van belang !!!! dat in essentie wij goede creaturen zijn en dat uit zich vooral in onze kinderen. Tot slot kan ook mogelijk worden volstaan dat GOD - de grote meester van het heelal - ons heeft gecreëerd.

3. Deze vraag is met 2 al beantwoord.

 

Nog één dingetje uit het verhaal......Zou een geavanceerde Robot zijn simpele werk uiteindelijk als "saai" kunnen aanmerken. Verveling is een emotie, maar ook een feitelijk iets. Ook een Robot behoeft m.i. beweging van de geest, net zoals een auto niet te lang stil moet staan of alleen maar 30 km p.u. rijdt. Een Robot dient dus uit te voeren naar zijn capaciteit.

 

Verhaal; vingers

In dit verhaal wordt wederom een robot getest. Dit maal heeft de Robot de beschikking over 6 lagere robots, die hetgeen hij opdraagt, voor hem uitvoeren. Van belang is dat de testers exact moeten weten wat de Robot kan en hoeveel deze aankan. Hier werd een teveel aan informatie niet juist over de andere lagere robots verdeeld (capaciteit te laag) waardoor de Robot vast liep.

Ook komt aan bod of een Robot eigen initiatief moet bezitten. BV bij een noodsituatie. Logischerwijs zal dat gebeuren indien een Wet wordt geschonden. Zie de volgende verhalen.

 

Verhaal ; Leugenaar.

In de volgende verhalen komt specifiek de Robot-psychologie (robopsychologie genoemd) en wel in de vorm van Susan Calvin.

Hier blijkt dat de Robot gedachten kan lezen. (zal m.i. nimmer mogelijk zijn).

De Robot liegt, vanwege de 1e wet. In dit geval ging het om beschadiging van de ego van mijn meester (een mens). Het wordt dus opletten hoe de wetten te implementeren! Afgeleide schade = ook schade!

Het liegen wordt opgelost door toepassing van een probleem, hetwelk de Robot niet kan oplossen omdat de 1e wet - doen iets wel te doen c.q. iets niet te doen, wordt geschaad. De Robot kan geen keuze maken en crasht.

 

Verhaal; Succes verzekerd.

Wederom een testlocatie maar nu bij een modaal gezin in de huiselijke situatie. De vrouw des huizes vindt de Robot eng, omdat emotie in zijn gezicht ontbreekt. Een Robot moet dus ook voldoen aan psychologische elementen, niet stinken, emoties kunnen afgeven, een reële kleur etc.

De Robot simuleert een affectie richting de vrouw om haar een blij (verliefd) gevoel te geven. Dit vanwege de 1e wet. Een minderwaardigheidsgevoel = ook schade.

 

Hier komt een belangrijk punt! Namelijk een Robot mag niet iemand beschadigen, maar wat als die mens al beschadigd is??? Mag of kan de robot dan initiatief nemen???  mijn visie; Beter dus van niet, ter voorkoming van vertroebeling van de wetten.

 

Verhaal; Lenny

Het gaat fout bij de ontwikkeling van een Robot. Zijn gedrag valt terug naar baby-toestand. Susan gaat de "baby" dingen aanleren. Opmerkelijk is een recent artikel - via Twitter - over elkaar lerende Robots. Dit zal een aspect van Robots worden.

 

Verhaal; Galeislaaf.

In dit verhaal komt een element naar voren wat nu al een issue wordt, namelijk de economische ontwrichting die Robots zullen veroorzaken. Kort gezegd wil ik wel mijn mening daarover schrijven.

Uiteraard zal de komst van Robots tot banenverlies zorgen. Maar dit aspect zal voor een groot deel worden gecompenseerd door een basisloon voor iedereen. Wie zegt dat wij allemaal moeten werken? Is een verdeling van werk en vrijwilligerswerk niet beter? Meer vrije tijd voor iedereen, meer economische ontwikkeling op basis van lokale initiatieven, moestuinen, ruilen, delen en samenwerken? Blijft ook staan dat er zeker enkele gebieden op aarde hulp nodig zullen behouden. Ik sluit niet uit dat persoonlijke hulp-werkzaamheden voor de armere gebieden zodanig worden, dat het normaal is om dat te doen (vrijwilligerswerk). Hoe dan ook.....de komst van Robots zal niet tegen kunnen worden gehouden. Dit is een economische wet. Altijd zullen er namelijk mensen zijn die veel geld willen verdienen. Bovendien zullen Robots ook een economische en maatschappelijke meerwaarde hebben, misschien zelfs wel buitenaards (op de maan of mars) of m.b.t het onderhouden van de natuur/milieu.

Nu het psychologische aspect van het verhaal.

Een Robot krijgt een bevel (om te liegen).

Kan een tegenbevel worden gegeven door een ander? Dit is een lastig aspect. Volgt de Robot zijn meester of is een Robot zodanig vrij dat iedereen een bevel kan geven en dus ook een tegenbevel?

- bij het altijd volgen van zijn meester....moet wellicht altijd de meester fysiek aanwezig zijn.

- bij het vrij zijn, ligt alle verantwoordelijkheid bij de mens die een bevel geeft. (je zou bepaalde mensen ook kunnen autoriseren tot het geven van een bevel.)

De oplossing ligt bij de wetten, die dit probleem moeten kunnen oplossen in combinatie met autorisatie(s). Natuurlijk zullen er Robots zijn die slechts één meester hebben, maar dat worden dan ook hele kostbare Robots. (let maar op....ook hierin geldt een economisch aspect. in die zin kan een robot uiteraard ook een  statussymbool worden en wellicht zal de merkt daarop inspringen! )Bovendien, mocht de meester overlijden.....hoe dan op te lossen?

De "oplossing" ligt dus ook bij de wetten an sich. Een bevel of tegenbevel zal geen schending van een wet mogen zijn. Een tegenbevel, zou mogelijk de 1e bevelgever kunnen schaden en dus zal het tegenbevel niet worden uitgevoerd.

Het geven van een bevel heeft dus ook te voldoen aan bepaalde waarborgen. Expliciet zou kunnen worden aangegeven dat - indien een tegenbevel volgt - dit eerst moet worden voorgelegd aan de 1e bevelgever.

Ook zou de 1e bevelgever van te voren zijn schade reeds kunnen aangeven.

Bijvoorbeeld;

Bevel - "Ziggi-1 je moet de deur niet openen tot ik het zeg. Als je het toch doet, dan wordt mijn privacy geschaad en dat wil ik niet behalve voor een noodgeval"

Tegenbevel - "Ziggi-1. Open de deur, want het is dringend".

Eerste reactie Ziggi-1  - "Nee, doe ik niet. Wat is de reden? "

Ziggi zal dus het tegenbevel moeten toetsen. Blijft staan dat indien bevelgever nummer 2 aangeeft dat het een noodgeval betreft, Ziggi-1 wellicht de deur zal moeten openen.

Het wordt wel erg gecompliceerd voor de robot! Is dit wel op te lossen? Gevaar is namelijk dat ten onrechte een noodsituatie wordt bedacht, terwijl dit niet het geval is! een mens heeft namelijk geen ingebouwde wetten). Een directe TOETS/NAVRAAG verbinding tussen Robot en meester is een optie om dit gevaar uit te sluiten.

Tot slot; in dit verhaal werkt de Robot TE perfect en verandert de originele teksten om discriminatie te voorkomen. (de lezer zou wel eens kunnen worden geschaad doordat deze zich gediscrimineerd voelt.

Ook hieruit blijkt dat implementatie van de wetten een zeer lastige wordt!

Nabrander; Een bevel om alles te vergeten, kan of mag dat? Iets om over na te denken.

 

Verhaal; Robot vermist.

Dit verhaaltje is qua idee verwerkt in I Robot.

  

Een Robot voegt zich bij een identieke groep andere robots, die als nieuwelingen worden ingezet.

Zijn bedoeling is om onzichtbaar te worden, omdat zijn meester hem weg heeft gezonden.

De Robot in kwestie, heeft het 2e deel van de eerste Wet niet! (wat hem tegenhoudt om schade aan een mens te voorkomen.) Dit vanwege dat anders deze Robot niet zou kunnen functioneren, omdat er gamma staling voorkomt en hij zodoende elke keer een mens wil redden.

Probleem voor Susan Calvin; hoe vindt ze de verborgen Robot tussen alle andere identieke robots.

Ze voert een aantal testen uit en de laatste test levert de betrokken robot uit. Dit puur vanwege het ene verschil met de andere Robots, namelijk zijn wetenschap over de werking van Infrarode en gammastralen. (wat de nieuwelingen dus niet weten)

Wat is hier belangrijk? Allereerst valt op dat de factor economie (lees, geld verdienen) voorrang heeft op veiligheid. Iets wat ten aller tijde moet worden voorkomen. Vergeet niet, feitelijk is een geavanceerde robot met een positronisch brein superieur aan de mens! Je wilt koste wat het kost geen afbreuk aan de ingebouwde wetten.

Ten 2e is gebleken dat de inhoud van een bevel en de daarbij behorende emotie funest kan zijn. Je moet zeer goed beseffen hoe je je bevel geeft en in welke bewoordingen. Oppassen dus voor eigen emotie.

 

Verhaal; risico.

Er wordt een Robot gebruikt als proefdier voor interstellaire reizen. De Robot is echter meer waard dan het leven van een mens!

Wat van belang is in dit verhaaltje, is dat een Robot een niet-werkend bevel niet zelf kan wijzigen. Er is dan een nieuw concreet bevel noodzakelijk. Zo blijkt dat de manier van bevel geven belangrijk is. Daarbij moet de Robot kunnen reageren - verbaal !!! - op het bevel, dus niet door louter op slot te raken door een onuitvoerbaar bevel.

 

Verhaal; Grappenmaker.

 

Er wordt aan de Robot een vraag gesteld en wat blijkt ; de oplossing leidt tot de dood van een mens.

De Robot zorgt ervoor dat de oplossing van de vraag wordt uitgevoerd EN zorgt dat Wet 1 niet wordt geschonden. Dit door de mens een zeer tijdelijke dood te laten ondergaan.

 

Verhaal; De Machines

Er zijn een aantal supercomputers op Aarde, die - op basis van de 1e wet (welzijn mensheid) - de gehele wereldeconomie beheren. (Robots zijn dus hier in feite supercomputers).

Het welzijn; iedereen heeft genoeg voedsel en werk en er zijn zodoende geen oorlogen meer.

(oorlogen hebben m.i. hun oorsprong in de oneerlijke verdeling van welvaart, aangezien oorlogen altijd gaan om grondgebied met hun natuurlijke grondstoffen. Zo is zelfs IS terug te brengen tot een economische oorlog, aangezien deze wordt gefinancierd door landen en/of roof van olie. Wat zou IS in de weg hebben gestaan om hun ideologie louter religieus te behouden, zodat een ieder zich daarbij vreedzaam kan aansluiten?)  

Aldus....zouden dergelijke supercomputers op dit gebied zeker reëel kunnen worden. Echter......helaas zal de mens altijd willen streven naar meer welzijn, dus moet de basis voor deze computers een communistische visie zijn.....en deze heeft nu juist in het verleden gefaald.

Misschien moeten we klein beginnen, b.v. bij een supermarkt, die alles onder controle heeft en inzicht t.a.v. alle voedsel-behoeftes van een klein dorp. M.i. zou iedereen dan op een dorp-voedsel-netwerk moeten zitten, die in verbinding staat met deze computer. Overschot en schaarste kunnen dan worden bestreden en dit heeft economisch voordeel. Bovendien geeft het meer kansen voor lokale boeren/telers.

Nu het verhaal. Er blijken onregelmatigheden te zijn, die eigenlijk niet kunnen bestaan. Wel enkele tekorten en ook overschotten. Hoe kan dat? Immers,

- robotten accepteren geen foutieve invoer.

- robots kunnen ook - het niet opvolgen van hun orders door mensen - als een feitelijk gegeven zien.

Zodoende worden de fouten gemaakt ter bescherming van de mensheid. Aangezien robots weten dat er altijd sceptisch naar robots worden gekeken (zijn ze superieur aan mensen??? = gevaar), maken ze fouten om dit beeld te ontkrachten. Ze weten namelijk dat als de mensheid afstand doet van robots.....dit uiteindelijk tot het einde van de mens zal leiden.

Aldus ligt in dit verhaal de toekomst van de mensheid in handen van Robots, terwijl NU de toekomst van de mensheid in handen LIJKT te zijn van ECONOMIE/GELD.

 

Verhaal; vrouwelijke intuitie

Susan Calvin is inmiddels bejaard, maar komt nog één maal in beeld.

Strekking verhaal; een vrouwelijke robot wordt gecreëerd, maar er is meer.

Doel is namelijk om een robot te maken, die niet belemmerend is door de drie Wetten. Daardoor bestaat er een mogelijkheid dat er een creatieve, onvoorspelbare robot komt. (ik zie parallel met een Quantumcomputer, die berekeningen maakt op basis van meerdere opties dan 0 en 1).

Zodoende ontstaat er een genie, gelijk aan de mens. Echter, dat is onwenselijk, gelet op het Frankenstein-complex wat de mens heeft t.a.v. robots.

DAAROM, krijgt deze robot een vrouwelijke vorm en doet zich qua spraak ook vrouwelijk voor. En wordt zo acceptabeler voor de mens. (een vrouw is immers niet zo gevaarlijk, denk men) (helaas klopt dat niet, want de gevaarlijkste terroristen zijn vrouwen, omdat ze meer gedreven kunnen zijn dan mannen!) 

 

Verhaal ; Weest indachtig. (belangrijk verhaal, een hoogtepunt in Robot-psychologie).

(NB - Susan Calvin is reeds 100 jaar dood)

Strekking verhaal; Robots zijn nog immer een probleem qua acceptatie (Frankenstein-complex) en daarom nog steeds verboden op Aarde. (ze doen louter werk op Maan/Mars etc.). De Machines, zie hierboven, hebben zichzelf uitgeschakeld op basis van de 1e Wet (welzijn Mens)

Immers, volgens mensen op aarde is dit juist de bevestiging dat Robots uiteindelijk gevaarlijk voor de mensheid kunnen worden. En DAAROM hebben de machines zich maar uitgeschakeld. Bovendien was hun werk af en hebben ze een goed functionerende ecologische maatschappij gecreëerd.

Er ligt t.a.v. Robots mede i.k.v. het Frankensteincomplex nog steeds een zeer belangrijke openstaande vraag.

Is een Robot in staat om op basis van de Wetten een juiste beslissing te nemen?

Voorbeeld; een geniale musicus rijdt in een auto en dreigt een tweetal bejaarden aan te rijden. Wat kiest een Robot als deze dit waarneemt EN kans heeft om te redden. Maar wie kiest de Robot; de  (ene) musicus of toch de (twee) andere mensen? Wet 1 zou waarschijnlijk het redden van twee mensen zijn!

Niemand die het zeker weet, want DIT valt nu juist onder het MENSELIJKE beoordelingsvermogen.

Wet 2 geeft ook problemen. Want wie moet een robot nu gehoorzamen qua bevel?

- een kind?

- een gek?

- een crimineel?

- een tegenstrijdige bevelgever?

- een onkundig persoon, die toch ter goede trouw een bevel geeft?

Een optie is om dit vooraf te testen en kijken wat de robot t.a.v. Wet 1 en 2 doet. Een andere optie is om een aantal voorbeelden in te bouwen, maar de mogelijkheden lijken eindeloos.

(NB - Wet 3 is geen beletsel. Omtrent opoffering robot versus Mens bestaan geen onduidelijkheid (in dit verhaal dan , want dit heb ik elders (zie Robot wetten aanvullend) al ter sprake gebracht als zijnde wel een probleem)

Invoeren van gegevens t.a.v. wet 2 vergt veel verlies aan informatieverwerking en dus zal de Robot trager worden dan gewenst.

Een andere optie; laat de robot - net als een kind - opgroeien. Nadeel, kost dus jaren ...............................en hoe dan ook - beoordelen kan ook discriminair zijn.

Mag een Robot discrimineren of stigmatiseren? Mag of willen we een Robot voorrang laten geven - in zijn reddingsactie -  aan een gezonde mens en een zieke mens dus niet redden?

Dit grote - onoplosbare - probleem wordt voorgelegd aan twee geavanceerde Robots, de een iets slimmer dan de andere, dus de slimme (Robot 1)zoekt het antwoord.

De Robot 1 komt met een advies;

- Opheffen Frankensteingevoel door robots qua vorm te veranderen in een vogel, hond of een insect. (opmerkelijke vondst) 

- Maak Robots de natuurlijke vijand van gemeenschappelijke vijanden (b.v. de malariamug, ratten/muizen) Robots zouden moeten worden getransformeerd.

- Of maak van Robots hulpdieren, zoals de Bij.

Dit totdat het Frankenstein effect is verdwenen, daarna kan weer worden ingezet op mensachtige robots.

De Robot lost dus de problemen met wetten niet op, maar richt zich op de wens van zijn werkgever om mensachtige robots acceptabel te laten worden voor de mens.

Mijn opmerking: De oplossing van Robot 1 is niet alleen opmerkelijk, maar waardevol voor NU. Immers, het lijkt erop dat een reëel frankenstein-complex mogelijk is en dus moeten de robot-bouwers dit voorkomen. Men kan dit idd doen door robots te creëren die niet menselijk eruit zien.

vervolg van dit grotere verhaal (evenzo belangrijk) in relatie met het advies.

Robot 1 en 2 hebben in het geheim een gesprek.

Robot 2 vindt dat - in het kader van Wet 2 (bevel geven) - de term "menselijk wezen" moet worden beoordeeld op;

- kennis,

- verstand en

- karakter.

En wel zo dat deze drie zaken iemand geschikt moeten maken om hem een bevel te geven.

Bij Wet 1 en 2 zou dan ......de meest geschikte - voorrang krijgen.

Robot 1 vraagt wie robot 2 op dit moment geschikt is om hem een bevel te geven.

Robot 2 antwoordt ......Robot 1  !!!!!!

De robotten zijn het met elkaar eens. Robot = gelijk aan mens en zelfs de meest geschikte.

Hierin schuilt dus een groot gevaar voor de toekomst met Robots. Robots kunnen zich een meerdere gaan voelen boven een mens.

Het is ook DAAROM dat robot 1 zijn vreemde advies had gegeven. Hij wacht op betere tijden (acceptatie Robots in menselijke vorm en voorts zodanig ontwikkelen totdat er een situatie ontstaat dat meerdere robots - de meest geschikte zijn - en dan zouden ze een Robot-maatschappij kunnen creëren.

Met de mogelijkheid om .......de mens te elimineren.

WOW !!!!

 

verhaal; tweehonderd jaar mens.

(= basis voor de film Bicentennial human, de film met Robbie Williams)

Andrew (een Robot) ontwikkeld zich van eenvoudige Robot tot nagenoeg mens.

Hij koopt zichzelf vrij en uiteindelijk krijgt hij ook rechten. (de rechten voor de robot) - zodat niet iedereen hem zomaar een bevel kan geven.

De laatste stap is die van sterfelijkheid.

Uiteindelijk sterft de robot aan ouderdom.

 

Op zich is dit verhaal qua wetten niet zo bijster interessant, maar de rechten voor de robot wel!

Bovendien....doordat Andrew steeds dichter bij de mens komt, ontstaat er wederom het Frankenstein-complex.

De mens besluit Robots te veranderen. Geen menselijke vorm meer, maar gewoon één superbrein, die hersenloze (duizenden) robots aanstuurt.

einde van dit boek.

 

 

 

 

E-mailen
Map
Info