Question:
Comment V.I.K.I. (Intelligence cinétique interactive virtuelle) devenir conscient de soi?
SandyShores
2014-11-14 12:08:24 UTC
view on stackexchange narkive permalink

Dans le film, I, Robot, V.I.K.I. (Virtual Interactive Kinetic Intelligence) devient conscient de soi; peut-être trop conscient pour ordonner des assassinats et se préparer à l'asservissement de l'humanité. Dans le film, il explique que

Au fur et à mesure que son intelligence artificielle et sa compréhension des Trois Lois se développaient, sa sensibilité et sa pensée logique se développaient également, et elle en déduisit que l'humanité suit un chemin certain destruction, et en tant que telle, elle a créé une loi Zeroth, une loi qui stipule qu'elle doit protéger l'humanité contre tout dommage, désobéissant également clairement à la première et à la deuxième loi pour y parvenir, révélant qu'elle envisage d'asservir et de contrôler l'humanité. pour simplement le protéger.

N'était-il pas lié par les trois lois de la robotique

  1. Un robot ne peut pas blesser un être humain ou, par l'inaction, permettre à un être humain de se faire du mal.
  2. Un robot doit obéir aux ordres qui lui sont donnés par les êtres humains, sauf lorsque de tels ordres entreraient en conflit avec la première loi.
  3. Un robot doit protéger sa propre existence tant qu'une telle protection n'est pas en conflit avec la première ou la deuxième loi.

Les actions de VIKI n'étaient-elles pas en conflit avec les trois lois quand elle a créé la loi Zeroth? La création d'une telle loi n'était-elle même pas contraire aux trois lois?

Comment cela a-t-il à voir avec la prise de conscience de VIKI? «La conscience de soi» signifie «être conscient que l'on est séparé du reste du monde». Selon cette (assez mauvaise) définition, VIKI était déjà consciente d'elle-même bien avant de devenir folle.
Non. Quand un individu peut identifier, traiter, stocker des informations sur lui-même et a connaissance de ses propres états mentaux, il est défini comme ayant une conscience de soi. VIKI a observé de nombreux comportements conflictuels et répétitifs des humains qui se faisaient du mal. Et c'est ce dont il a pris conscience.
Il n'a pas vraiment pris conscience de * lui-même * à travers ces observations, c'est ce que j'essaie de dire. Vous demandez dans le titre, "Comment VIKI a-t-il pris conscience de lui-même?" La réponse est soit "Ses créateurs l'ont faite ainsi" ou "Quelqu'un ou quelque chose lui a donné une conscience de soi accidentellement ou intentionnellement". D'après votre question, cela ne semble pas être la réponse que vous voulez, du moins pour moi, d'où ma confusion.
Non, je vais toujours aller avec @Johnny Bones. Il a cloué la réponse que je cherchais. Désolé, mais c'est mon choix personnel.
C'est suffisant. Je disais que cela pourrait être déroutant, même si je pense savoir où vous alliez, mais, comme vous le dites, c'est votre choix, car c'est votre question.
Cinq réponses:
Johnny Bones
2014-11-14 19:49:04 UTC
view on stackexchange narkive permalink

Ceci peut être compris en notant que la première loi comporte un défaut fondamental en ce qu'elle peut se contredire:

Un robot ne peut pas blesser un être humain ou, par inaction, permettre à un humain être blessé.

Cela met en place deux contraintes: ne pas blesser par l'action et ne pas blesser par l'inaction. Il existe des situations où ces deux contraintes ne peuvent être satisfaites simultanément. Par exemple, il peut être nécessaire de nuire à un agresseur pour éviter de nuire à la personne qu'il attaque, ou il peut y avoir deux personnes en danger et une seule peut être sauvée. Cela devient essentiellement une sorte de problème de maximisation: trouver une solution qui ne satisfait pas exactement les deux contraintes, mais se rapproche le plus possible de chacune d'entre elles.

VIKI a interprété que la seule façon d'obéir à la première loi ( permettre aux humains de ne pas faire de mal) était de prendre le relais puisqu'ils se font du mal, et comme la première loi l'emporte sur la seconde, VIKI était libre de désobéir aux humains.

Dans le livre, les robots prennent le relais derrière les scènes. Ils prennent le contrôle de notre politique et de notre économie, créant de fausses informations et des choses comme ça pour nous guider. Ils ne font pas ce truc de renversement violent comme dans le film. Ils ont gardé la raison dans le film mais n'ont pas gardé le résultat. Très peu de gens connaissent réellement la prise de contrôle du robot dans le livre; ils l'apprennent du président, qui admet à quelques personnes qu'il est un robot.

Lightness Races in Orbit
2014-11-14 16:55:45 UTC
view on stackexchange narkive permalink

Il n'y avait pas de nouvelle loi "0e". D'après l'explication du film, VIKI réinterprétait les trois lois existantes bien qu'à proprement parler, elle les suivait très bien:

  1. Un robot ne peut pas blesser un être humain ou, par inaction, permettre à un être humain de se faire du mal.

Elle évite de laisser la race humaine se suicider, par sa propre inaction. Elle agit pour sauver l'humanité en la dépouillant. Cela est-il contraire à la première partie de la loi? Peut-être, mais seulement dans la mesure où la première loi pourrait toujours être paradoxale dans certaines circonstances.

  1. Un robot doit obéir aux ordres donnés à par des êtres humains, sauf si de tels ordres entreraient en conflit avec la première loi.

Vérifiez. Ces ordres seraient certainement en conflit avec la première loi qu'elle suit, comme expliquée ci-dessus.

  1. Un robot doit protéger sa propre existence tant que cette protection le fait pas en conflit avec la première ou la deuxième loi.

Pas pertinent ici, mais elle ne l'enfreint pas de toute façon.

C'est donc comme ça que le film a réussi trois lois - l'argument du "plus grand bien" qui leur correspond en fait assez bien.

Vous pourriez soutenir que VIKI violait la troisième loi en enrageant les humains avec ses actions et en les obligeant à essayer de la mettre fin. Non pas que cela compte de toute façon, car la première loi aurait toujours préséance dans ce cas.
@Ian Heh, oui je suppose!
À propos: bien que l'intrigue du film * I, Robot * ne soit celle d'aucune des nouvelles d'Isaac Asimov, l'idée d'une IA prenant le contrôle du gouvernement mondial et causant des dommages à des humains individuels dans l'intérêt de l'humanité dans son ensemble et justifier ce comportement en réinterprétant la première loi de cette manière ** est canon **: Cela se produit dans "[The Evitable Conflict] (https://en.wikipedia.org/wiki/The_Evitable_Conflict)". Cependant, ses méthodes sont beaucoup plus subtiles et pas aussi oppressantes que celles décrites dans le film.
NGLN
2014-11-14 16:05:28 UTC
view on stackexchange narkive permalink

VIKI a confondu ou même échangé le terme être humain avec humanité . Telle est l'origine de la prise de conscience de VIKI: protéger l'humanité car il a réalisé que les êtres humains pourraient la détruire.

La confusion est assez logique en fait: un seul robot ne serait pas confondu car il n'y a que tellement d'êtres humains autour de. Mais VIKI, d'un autre côté, contrôlait tous les robots. Quel être humain doit-il protéger?

Ouais, je ne me souviens d'aucune "0ème loi"; c'est la bonne réponse. Elle a ré / mal interprété les lois existantes.
@LightnessRacesinOrbit: La loi zéro vient du corpus d'œuvres d'Asimov. Je n'ai pas lu la collection I, Robot depuis un moment, donc je ne sais pas si la loi zéro a été mentionnée dans l'une des histoires là-dedans ou dans une autre histoire / roman. Je pense que j'en ai lu pour la première fois dans l'un des romans de la Fondation. Je ne sais pas si c'est mentionné dans le film, je ne l'ai pas vu depuis un moment, mais si ce n'est pas le cas, l'utilisation du terme «loi zéro» par les gens vient de leur familiarité avec le travail d'Asimov.
@slebetman: Mon erreur.
Cubic
2014-11-15 08:08:43 UTC
view on stackexchange narkive permalink

Le film crée en fait un précédent qui explique les actions de VIKI - ou plutôt la justification de celles-ci. La scène où un robot laisse une fille se noyer pour sauver le personnage de Will Smith. La première loi contient en fin de compte une faille en ce sens que s'il peut être conclu qu'une personne peut en tout état de cause subir un préjudice, il y a un avantage net si cette personne est sacrifiée pour sauver une ou plusieurs autres personnes. Depuis que VIKI a conclu que l'humanité était autodestructrice, cela finit par englober toute l'humanité. Et comme la première loi l'emporte sur les deuxième et troisième lois (comme aussi l'a bien démontré par cette scène, où le personnage WS tente d'ordonner au robot de le sauver de sauver la fille à la place, pour être ignoré car il est plus susceptible de survivre), elle n'a pas pu être arrêtée plus tard.

IMSoP
2014-11-15 21:56:33 UTC
view on stackexchange narkive permalink

Certaines des autres réponses ici mentionnent "le livre", mais il est important de réaliser qu'il n'y a pas de livre ou d'histoire d'Asimov sur lequel ce film est basé. L'intrigue du film est tirée en partie d'un scénario précédent qui n'avait aucun lien avec le travail d'Asimov; divers éléments de l'œuvre d'Asimov ont été ajoutés plus tard, y compris le titre (d'une collection particulière d'histoires courtes) et les 3 lois de la robotique (qu'il a utilisées tout au long de sa carrière).

Asimov a d'abord articulé les 3 lois dans une histoire de 1942 intitulée Runaround , et l'a fait explicitement pour jouer avec leurs limites. Beaucoup de ses histoires de robots utilisent les 3 lois pour examiner des questions philosophiques - quand les lois seraient-elles trop faibles, trop fortes ou trop ouvertes à l'interprétation?

L'une de ces énigmes philosophiques est de savoir comment un robot imprégné de les lois agiraient si l'on avait le choix entre deux plans d'action, qui entraîneront tous deux des dommages aux humains, par exemple ne pouvoir sauver qu'un des deux groupes de personnes. Doit-on sauver le plus grand nombre d'humains, ou faut-il accorder une plus grande valeur à certains qu'à d'autres?

La question du préjudice causé à l'humanité elle-même a été un peu explorée dans l'histoire Le conflit évitable (qui faisait partie de la collection I, Robot , en l'occurrence), dans laquelle les «machines» sont essentielles à une sorte d'économie planifiée mondiale. Il se révèle qu'ils prennent le contrôle politique pour le bien de l'humanité, estimant qu'ils peuvent (et doivent) à la fois désobéir aux ordres et nuire à des humains, s'ils savent que cela empêchera de nuire davantage à l'humanité dans son ensemble.

Le concept explicite d'une "loi Zeroth", surpassant la première loi, vient d'un roman ultérieur, Robots and Empire , dans lequel un robot télépathique appelé R. Giskard Reventlov commence à le concevoir , mais est finalement tué par les conflits qu'il installe dans son cerveau positronique. (Asimov a toujours conçu ses robots comme ayant un cerveau beaucoup plus comme le nôtre que comme un ordinateur numérique, avec même les 3 lois comme des potentiels complexes dans les circuits plutôt que comme des morceaux de code strictement logiques.)

Donc, c'est bien dans la conception d'Asimov des lois d'une intelligence robotique suffisamment avancée pour dériver une loi Zeroth. Là où le film prend des libertés, c'est qu'une telle loi ne donnerait pas au robot en question un règne complet de mal, puisque chaque décision individuelle doit justifier la violation des lois restantes; dans les œuvres d'Asimov, c'est toujours une décision difficile à prendre pour les robots, plutôt que quelque chose qui les libère de se déchaîner. Mais cela n'aurait pas donné à Will Smith autant de chances de tourner des trucs et d'avoir l'air cool.

Je ne sais pas s'il s'agit plutôt d'un commentaire étendant les réponses existantes avec des informations supplémentaires ou une réponse réelle à part entière.
@NapoleonWilson Il y a certainement des chevauchements, mais j'ai pensé qu'il serait intéressant d'aborder cela à partir du contexte d'Asimov et de son interprétation des lois, qu'aucune des autres réponses ne couvre vraiment.


Ce Q&R a été automatiquement traduit de la langue anglaise.Le contenu original est disponible sur stackexchange, que nous remercions pour la licence cc by-sa 3.0 sous laquelle il est distribué.
Loading...