Le test de Turing idéologique #DébattonsMieux

preview_player
Показать описание
Le test de Turing idéologique consiste à défendre la position qui vous est contraire, de manière au moins aussi convaincante que le feraient les meilleurs défenseurs de cette position contraire.

Testez-vous avec des sujets délicats, avec le hashtag #TestDeTuringIdéologique : tirez une pièce. Pile, vous défendez votre position. Face, vous défendez la position contraire. Vos lecteurs devraient être incapables de déterminer votre véritable position !

La formule du savoir (mon livre) :
A Roadmap for the Value-Loading Problem

Moi en podcast avec Mr Phi :

Рекомендации по теме
Комментарии
Автор

Petite précision sémantique, l’électrocution implique la mort, donc si ils sont électrocutés, la décharge est forcément mortelle ;) Sinon on parle d’électrisation

fabinouze
Автор

#TestDeTuringIdéologique
Clairement, il est préférable d'appuyer sur le bouton. Si j'appuie dessus, c'est que l'IA a probablement prédit que je le ferai. Elle n'aura pas causé de catastrophe. J'aurais ainsi évité la catastrophe.
Alors, on pourrait croire qu'il y a un problème de causalité dans ce raisonnement. Ce serait donner trop d'importance à la notion de causalité temporelle, qui est très critiquée par certains philosophes et qui paraît incompatible avec la physique moderne, que ce soit la relativité générale qui réfute l'existence d'une direction privilégiée du temps, ou par la physique quantique des champs, où il n'y a que des corrélations (ou plutôt intrications) entre des événements de l'espace-temps.
Enfin on peut noter l'argument par l'apprentissage par renforcement. Dans ce cadre d'apprentissage, chaque agent (moi compris) doit choisir une "policy", c'est-à-dire une sorte de stratégie intemporelle. Il faut en particulier l'ensemble des décisions comme un tout. Dès lors, appuyer sur le bouton doit être pris en compte comme une opération globale. Qui permet ainsi de sauver le plus grand nombre, bien que ça fasse souffrir et que ça tue 100 individus.

le_scienceall
Автор

#TestDeTuringIdeologique
Je n'appuis évidemment pas sur le bouton. Certes, je prend un risque assez fort que 1 million de personnes soient tués mais je n'en serais pas responsable, l'IA serait responsable ou du moins, ceux qui l'ont programmé. Moi, tout ce que je peux faire, c'est choisir de tuer de sang froid et sous mes yeux 100 personnes ou pas. Je refuse de le faire.
De plus, l'IA a déjà fait son choix, donc ces 1 millions de gens sont déjà mortes (ou pas mais leur sort est déjà fixé). L'IA a donc déjà potentiellement tué 1 million de personne sans que je ne fasse quoique soit puisque le jeu n'avait même pas encore commencé pour moi.


La difficulté de l'énigme vient du fait que l'on semble pouvoir influencer le passé grâce à la prédiction de l'IA. Donc le principe de causalité n'est pas respecté, on peut "changer" le passé quelque part. D'un point de vue mathématique, il faudrait sans doute appuyer mais je ne pense pas être capable de tuer 100 personnes de sang froid, quand bien même ce serait "mathématiquement" la chose à faire. Dans le pire des cas, j'aurais toujours sauvé 100 personnes par mon action directe.

Antleir
Автор

#TestDeTuringIdeologique


J'appuie sur le bouton : c'est juste une question d'être en accord avec soi même. Si, une fois que je suis conscient de toutes le règles, je considère que le moindre mal pour l'humanité est de tuer 100 personne pour éviter la mort d'un million alors je peux me dire que l'IA a dû prévoir ma manière de voir les choses et qu'elle n'a tué personne. Il me reste plus qu'à appuyer sur le bouton.
Mais pourquoi appuyer si à ce moment-là on part du principe qu'elle ne l'a pas fait parce que j'allais appuyer? On pourrait simplement la bai** et changer notre avis comme ça on sauverait 100 personnes en plus.
Sauf que ce petit jeu n'existe pas dans notre présent car il a déjà eu lieu dans la tête de l'IA, qui sait quel coup on jouera, changer d'avis ne sera pas un bluff face à la situation mais juste l'aboutissement de ce que l'IA aurait prévu (quelque soit notre choix et notre changement de stratégie elle l'aurait prévu).
On revient donc à la situation de départ : lequel de mes choix est le moindre mal pour tous?
C'est bien évidemment d'appuyer, tuer 100 personnes et en sauver 1 million.

A considérer que si on se décide de laisser le choix au hasard, l'IA a dû prévoir que nous allions faire ça. Puisqu'on peut partir de principe que dans le pire de scénarios l'IA peut être malveillant et vouloir nous punir de laisser notre choix au hasard et d'éviter les règles du jeu en décidant de faire de son côté le plus de mal possible en tuant le million de personnes. En effet, si on suit pas son jeu on peut se dire qu'elle peut nous punir ainsi. On conclut donc que pour éviter le pire scénario il faut encore une fois se mouiller et appuyer sur le bouton.


Néanmoins, si on part du principe que nous ne sommes pas utilitaristes et qu'on ne peut quantifier la valeur des vies humaines, qu'en sachant cela l'IA a prévu que nous n'allions pas appuyer sur le bouton parce qu'on ne pourrait pas tuer de nos propres mains 100 personnes. On doit quand même réfléchir à quelques détails: d'abord dans ce cadre le fait de ne pas appuyer sur le bouton est un acte aussi valable que celui d'appuyer, en termes de morale la non action peut être aussi critiquable que l'action (d'ailleurs la loi le punit). Quelque soit le résultat de cette affaire ce sera notre choix qui fera que des êtres humains mourront. le sang de 1 millions de personnes mortes l'est tout autant que celui des 100 si l'on appuie. De plus on doit accepter le fait qu'à l’instant T où notre choix doit se faire la question de qui est vraiment le coupable derrière tout ça a peu d'importance. Se dire que "les vraies coupables de la mort de 1 millions sont ceux qui ont programmé l'IA et pas nous, que nous n'allons pas appuyer sur un bouton pour tuer 100 personnes" hé bien cela n'a de l'importance que face à un tribunal futur. On s'en fout de ça, vous ne serez pas tenu pour responsable de cette situation quelque soit votre choix, cependant entre les deux choix possibles il y en a bien un qui permet de sauver plus de vies que l'autre.


Enfin, on doit aussi prendre en compte qu'il est possible que tout cette expérience soit une mise en scène, un test. Dans ce cas on doit juste faire le meilleur choix pour le réussir, c'est-à-dire celui qui sauve plus de vies = appuyer sur le bouton.


Pour conclure, cette analyse est valable que si, et seulement si, on part du principe que l'IA a vraiment pu penser comme nous.


ps: Pour ceux qui croient qu'on peut modifier le passé vous voyez le problème à l'envers, on ne change pas le passé, vous ne faites que l'accomplir car quelques soit votre choix la machine aura fait le même alors pas besoin de douter, c'est un fait: votre choix final est le même que celui qu'aura déjà fait la machine.


pps: Pour ceux qui se disent que la machine ne peut prévoir qu'à 99.99% et qu'il reste donc une chance qu'elle se trompe, ben les gars je préfère infiniment suivre une probabilité pareille que croire dans le 00.01% de chances d'erreur. Donnez moi cette probabilité de gagner dans n'importe quel jeu de hasard et j'y jouerai tout ma vie!

MaximilienAue
Автор

Je n'ai jamais lu une notice d'utilisation de quoi que ce soit avant d'essayer d'appuyer sur tous les boutons pour voir ce qu'il se passe. Donc je me réveille dans la pièce, je vois que je suis coincé, j'appuie sur le bouton pour voir si ça fait quelque chose et après je lis le papier à côté.

Djorgal
Автор

Je pars du principe que si l'IA est fiable à 99, 99%, alors, elle a anticipé tout mes raisonnements et aura fatalement prédit ma décision.
Ma décision sera donc de lancer une pièce au hasard. Pile, j'appuie, face, je n'appuie pas.
Ainsi, même si l'IA a prédit que j'allais lancer une pièce, elle ne sais pas si j'appuie ou pas.
Une chance sur deux que l'IA fasse une mauvaise prédiction !


Tiens, ma réponse ressemble au #TestDeTuringIdeologique ? Quel heureux hasard ! :p

davidg
Автор

#TestDeTuringIdéologique
Arguments pour ne pas appuyer :
1. Pour ma conscience, je considère que le programmeur de l'IA est un assassin qui doit assumer ses actes. Pas question de jouer à son jeu sadique. A-t-on déjà vu un médecin digne de ce nom tuer quelqu'un dans la rue parce que ses patients ont besoin de greffes ?
2. Par égoïsme, je suis le principe du "mort kilométrique" : 100 personnes qui meurent atrocement devant mes yeux, c'est plus terrible que 1 million rapidement et loin de moi.
3. Encore plus égoïste, je ne veux pas aller en prison (l'énoncé n'en parle pas, mais on ne sait jamais). A-t-on déjà jugé quelqu'un qui n'avait pas balancé un obèse sous un train fou pour arrêter ce dernier ? On mettrait plutôt en taule celui qui l'aurait fait.
Arguments pour appuyer :
4. Pour ma conscience, si je choisis les 100 : 100*99.99 + 1000100*0.01 = 200 morts en moyenne si on "jouait" 10000 fois. Si je choisis les 1 million : + 0*0.01 = 999 900 morts en moyenne. Y a pas photo.
5. Par égoïsme, je n'ai pas envie d'être tué (l'énoncé n'en parle pas, mais on ne sait jamais). En tuant les 100, je suis sûr de survivre, alors que je pourrais faire partie des 1 million. Mes proches aussi peuvent en faire partie (on va dire que je ne connais aucun des 100). La probabilité est chaque fois de 1/75000, c'est peu et beaucoup à la fois.
Les 3 premiers arguments m'ont plus convaincu. Ma décision est prise, je n'appuie pas.

JJohan
Автор

Si je étais sûre de la prédiction de l'IA, j'appuierais sans hésiter (et sauverais 1m de personne dans la majorité des cas).

Sauf que ce n'est pas DU TOUT mon intuition, il y a plusieurs points qui motive l'action inverse:
- je ne crois pas au scénario, ma crédence au petit papier est faible donc je ne prends pas en compte cette information et fait le choix de ne pas appuyer.
- si je suis convaincue d'être dans les mains d'une intelligence maléfique (artificielle ou non), alors je pense que son but est de toute façon de tuer pleins de gens. Certainement plus que 1million et cela peu importe ce que je fais. Donc je n'appuie pas.
- finalement j'évalue ma souffrance personnelle comme plus forte si je tue moi-même 100 personnes et les voir souffrir, par rapport au fait que d'autre gens soit tué (c'est déjà le cas avec la pauvreté dans le monde, les guerres, etc. et je ne fais déjà rien en ce moment). Donc pour maximiser mon bonheur, je n'appuie pas.

citronmirab
Автор

Comment on peut savoir que l'IA est fiable à 99.99% sans répéter l'expérience ?

pierrestober
Автор

#TestDeTuringIdeologique
Cela me fait penser forcément au test de Milgram, et comment une partie non négligeable d'entre nous (jusqu'à 40% selon les conditions je crois ?) peut devenir des tueurs sous la pression d'un supérieur (expliquant ainsi certaines atrocités sous le 3° Reich)... La différence là, c'est qu'il n'y a pas d'autorité supérieure, mais au contraire une entité que quelque part on peut commander. En effet, l'hypothèse est que si l'IA arrive à lire dans mes pensées, alors cela revient à dire qu'elle pense comme moi. 
=> J'ai donc à penser ce que je veux, elle suivra. 
=> Quelque part j'ai à la fois le pouvoir de contrôler ce qu'il se passe, et je peux ne pas être soumis aux responsabilités. 
=> Autrement dit, j'ai le pouvoir de ne pas être responsable de tuer 100 personnes car je n'appuie pas sur le bouton + j'ai le pouvoir de ne pas être responsable car c'est l'IA qui tuera 1 million de personne, non moi.
=> je suis doublement non responsable, donc je n'appuie pas

exaltiafr
Автор

Je trouve la communauté science 4 All très forte au test de Turing idéologique❤️

raphaels
Автор

J'ai enfin l'opportunité de recréer le monde avec les rescapés que j'ai sauvé, j'appuie pas.

superresistant
Автор

Moi j'appuie, j'ai jamais réussi à m'empêcher d'appuyer sur un bouton.

dyoudi
Автор

#TestDeTuringIdéologique Il semble que comme la décision de l'IA à été prise par le passé, notre action ne peut pas avoir d'impact dessus, ainsi il semble que le fait d'appuyer sur le bouton, étant "indépendante" du choix de l'IA, est simplement la mise à mort des 100 personnes. Appuyer sur le bouton dans l'objectif de modifier le passé ne marche pas car l'IA à déjà prise sa décision, et ceci peut importe sa décision.

poloplasmamorel
Автор

Il y a quelque chose qui me perturbe, disons que je tire à pile ou face pour savoir si j'appuie ou non, alors la prédiction peut vraiment avoir une validité de 99.99% ?

citronmirab
Автор

La formulation est un peu étrange. La prédiction extrêmement fiable de l'IA implique que notre choix est déterminé. Il est compliqué de "choisir" dans ces conditions.
Si j'appuie sur le bouton il est fort probable que l'IA le savait (j'y étais déterminé et par un moyen inconnu elle a pu "calculer" le futur)
Et donc il n'y a "que" 100 morts
Mais alors puisque j'étais déterminé, je ne peux pas "choisir d'appuyer"...
#TestDeTuringIdeologique

StrangerStone
Автор

Dans tous les cas, j'appuie pas sur le bouton. Pourquoi ?

Assumons qu'il y a un "bon" choix entre ne pas appuyer (option A) et appuyer sur le bouton (option B). Si A est la bonne option, alors pas de problème, j'ai gagné. Si B est la bonne option, il semblerait qu'il faille accepter le déterminisme complet de l'univers pour qu'une telle IA puisse "voir dans le futur". À partir de ce moment, j'accepte que le libre-arbitre n'existe pas. Donc mon choix de ne pas appuyer sur le bouton n'en est pas un et je n'ai aucune influence sur ça.

Si on réfléchit, on remarque que de choisir d''appuyer sur le bouton ne change rien si B est le bon choix, mais 100 personnes mourront si A est le bon choix. Ainsi, même si l'on estime à 1% la plausibilité (d'un point de vue bayésien) que A soit la bonne option, il ne faut pas appuyer sur le bouton.

pierrestober
Автор

réflexion perso sur l’expérience: ca depend grave trop du "caractere" de l humain tester, je m'explique: si l'IA est réellement capable de prédire/remplacer la réflexion d'un humain ( a 99.99% ), ALORS le résultat du test dépend juste des choix de cet humain. on pourrai presque supprimer la partie IA du problème et la remplacer par l'humain c'est a dire que a 9H on demande a l'humain de prédire ce qu'il va lui meme choisir a 12H ( en sachant qu'il recevra un serum d'oublie entre 9H et 12H ) et donc l'humain se retrouve a 9H avec ces choix:
1) tu appuie sur le bouton, tu sauve a coup sur 1 million de gens mais tu tue peut être 100 personnes
2) tu n'appuie pas sur le bouton, tu sauve peut être 100 personnes et tu tue 1 million de gens a coup sur
( a priori si on est pas psychopathe, misanthrope ou collapsologue on choisi le 1 lol ) donc l'humain a 9H a ENVIE que lui même a 12H appuie sur le bouton
SAUF QUE ( et c'est là toute la subtilité qui dépend grave trop du caractère ) cet humain sait déjà ce qu'il va penser a 12H une fois que les morts serons déjà fait ( ou pas ) car lui même a 12H se retrouvera confronter a UN AUTRE CHOIX que celui de 9H ce choix sera:
1) tu appuie sur le bouton et tu tue peut être 100 personnes
2) tu n appuie pas et tu ne tue pas 100 personnes
et là est tout le probleme, a 9H cet homme sait déjà que a 12H il préférera le choix 2.... car c'est SON CARACTERE IL EST COMME CA IL Y PEUT RIEN !! et donc il sais que cette prediction va faire 1 million de mort mais du coup il a pas le choix dans l'histoire... ou allors a 9H il sais deja qu'il choisira le choix 1 ( parce que c'est un provocateur qui croira pas une seconde a cette histoire de 100 personnes attaché a l ecran )
du coup tout est deja prédeterminé selon le caractere de la personne choisi dans le roile de l humain.

yodasky
Автор

J'ai globalement l'impression qu'on a affaire à un équilibre de Nash où on a intérêt à ne pas appuyer sur le bouton (le choix de l'IA étant déjà exécuté), et où l'IA a intérêt à prédire qu'on n'appuiera pas (puisque on n'a donc pas intérêt à le faire). Si un seul des deux opère un choix différent il se retrouve dans une situation pire (l'IA n'aura tué personne si elle est la seule à sortir de cet équilibre, et inversement on n'aura sauvé personne).
Est ce que les 0.01% de mauvaise prédiction ne correspondent pas simplement au cas improbable où on décide malgré tout d'appuyer sur le bouton et de tuer tout le monde?

HSOpyro
Автор

#TestDeTuringIdeologique
J'appuie sur le bouton car je fais confiance à cet IA. En effet cet IA a certainement fait la bonne prévision car elle est très fiable (99, 99%). Si je n'appuie pas sur le bouton, alors l'IA l'aurait sûrement prévu et déclenché la catastrophe. Si j'appuie sur le bouton l'IA l'aurait également prévu et donc elle n'aurait pas déclenché de catastrophe. J'appuie donc sur ce bouton car 1 million de vies vaut plus que 100 vies.

pierrenavard