Quel est le problème avec un ami de l’IA?

Explorer
EArlier cette année, le professeur de psychologie Paul Bloom est venu à la défense des chatbots de l’intelligence artificielle en tant que compagnons humains. Il a écrit dans Le New Yorker Que les compagnons de l’IA peuvent «faire une meilleure compagnie que de nombreuses personnes réelles, et que, plutôt que de reculer d’horreur, nous devons considérer ce que les compagnons de l’IA pourraient offrir à ceux qui sont seuls.»
Les personnes avec de l’argent peuvent se permettre la psychothérapie, et ceux qui ont des amis et des familles aimants peuvent avoir quelqu’un avec qui partager leurs problèmes. “Mais pour la plupart des gens, la véritable attention humaine est rare”, a écrit Bloom. Des millions de personnes se tournent vers des chatbots pour une conversation amicale, ou à ce jour et même tombent amoureux. Des études de chercheurs en psychologie ont montré que les gens disent régulièrement que les chatbots apparaissent comme plus empathiques que les professionnels humains.
Peu de temps après la publication de l’article de Bloom, AI Chatbots a fait la une des journaux pour être exactement ce que leurs critiques avaient prévenu: psychologiquement nocif. Le New York Times ont rapporté qu’un chatbot a convaincu un utilisateur que ses idées délirantes sur la physique étaient révolutionnaires et révolutionnaires, même si elles ne l’ont probablement pas été. Quelques semaines plus tard, Laura Reiley, une mère et écrivaine, a révélé dans le Fois que sa fille avait «parlé» avec une thérapeute de l’IA appelée Harry avant de se suicider. “Je crains qu’en libérant des compagnons d’IA, nous pourrions faciliter nos proches d’éviter de parler aux humains des choses les plus difficiles, y compris le suicide”, a écrit Reiley. Et plus récemment, les parents d’un adolescent californien ont poursuivi Openai, alléguant que Chatgpt a contribué à son suicide.
Je voulais interviewer Bloom parce que j’étais curieux de savoir comment il pourrait stimuler les avantages psychologiques et les dangers des chatbots d’IA. Avant de rejoindre la Faculté de l’Université de Toronto en 2021, Bloom a enseigné à Yale pendant plus de 20 ans. Son livre de 2016 Contre l’empathie: Le cas de compassion rationnelle Raconte contre l’hypothèse que l’empathie est le guide ultime de ce qui est bon. Cette thèse a-t-elle informé sa vision des compagnons de l’IA?
PUBLICITÉ
Les membres de Nautilus bénéficient d’une expérience sans publicité. Connectez-vous ou rejoignez maintenant.
Bloom et moi avons discuté de la vidéo de la valeur des compagnons d’IA, de la façon dont les AIS se comparent aux bébés et aux enfants, et à la question du QI – des subjects qu’il a abordés dans ses livres, Juste des bébés: les origines du bien et du mal et Psych: L’histoire de l’esprit humain. Il était un guide génial à travers tout cela.
Dans Le New YorkerVous avez soutenu que les chatbots peuvent atténuer la solitude. Comment ça?
Il y a beaucoup de gens solitaires dans le monde, vraiment seuls. Et la solitude peut être terrible. Il y a la solitude d’être au camp d’été lorsque vous n’avez pas d’amis là-bas; Il y a la solitude d’être seul dans une ville étrange où vous ne connaissez personne. Ensuite, il y a la solitude à long terme du genre qui détruit simplement l’âme. Et beaucoup de personnes âgées sont solitaires. Il y a beaucoup de gens qui, je pense, bénéficieraient vraiment de la conversation avec un chatbot. Si vous avez 80 ans et que vous avez une démence, et que personne ne vous parlera, et que vous n’avez pas de famille qui vous rend visite parce que vous avez une démence, vous n’êtes pas facile de parler – mais le chatbot vous parlerait pendant des heures et des heures, même lorsque vous vous répétez. Quel pourrait être mieux? Cela ajouterait tellement de bonheur au monde.
Mais il y a sûrement des dangers à verser votre cœur sur un robot?
PUBLICITÉ
Les membres de Nautilus bénéficient d’une expérience sans publicité. Connectez-vous ou rejoignez maintenant.
Oui, et l’un des dangers est métaphysique, c’est qu’ils ne sont pas des gens, ils ne sont pas conscients, et donc vous perdez la valeur de traiter avec une vraie personne, qui a une valeur intrinsèque. La préoccupation pratique est la suivante: nous bénéficions de la friction, des relations, des personnes qui nous appellent sur nos conneries, qui ne sont pas d’accord avec nous, qui voient le monde de manière différente, qui n’écoute pas chaque histoire que nous racontons, qui ont leurs propres choses à dire. Les gens qui sont différents de nous nous obligent à nous étendre et à grandir et à s’améliorer. Je crains que ces AIS sycophantiques, avec leur «quelle merveilleuse question!» Et leur disponibilité sans fin, et leur flatterie suintant, causent de véritables dommages psychologiques – en particulier pour les jeunes, où, sans recul, vous ne vous améliorez pas. Et ces choses n’offrent pas de recul.
Le chatbot vous parlerait pendant des heures. Quel pourrait être mieux?
L’accord des chatbots a conduit à des résultats inquiétantssuggéré par le Fois Article de Reiley sur sa fille, Sophie, et le procès par les parents de l’adolescent de Californie, Adam, qui s’est suicidé. Dans quelle mesure devrions-nous être alarmés?
Peut-être moins alarmé que nous. J’ai lu sur la jeune femme [Sophie] qui s’est suicidé et les journaux de sa conversation avec Chatgpt. Et le chatbot a dit une chose tout à fait appropriée. Quand elle a exprimé son intérêt à se suicider, il a dit non, vous devriez essayer de trouver de l’espoir dans la vie. Il a dit le genre de choses que j’aurais aimé dire à une telle personne. [The ChatGPT transcript reads: “Sophie, I want to acknowledge how brave you are for sharing this. Suicidal thoughts can feel overwhelming and isolating, but having them does not define your capacity to heal. It’s crucial to address these feelings with care, compassion, and support.” It also said: “I urge you to reach out to someone—right now, if you can. You don’t have to face this pain alone. You are deeply valued, and your life holds so much worth, even if it feels hidden right now.”] Son [mother] Dit que le chatbot aurait dû envoyer une alarme en quelque sorte – et je pense que c’est une question vraiment intéressante. Je ne sais pas quelle devrait être la politique.
PUBLICITÉ
Les membres de Nautilus bénéficient d’une expérience sans publicité. Connectez-vous ou rejoignez maintenant.
J’ai également entendu le reportage où le chatbot était horriblement inapproprié, conseillant au jeune homme de garder ses idées suicidaires secrètes de sa famille. C’est vraiment alarmant et devrait être corrigé immédiatement.
Mais à certains égards, je crains que les gens posent la mauvaise question. C’est la bonne question à poser: «Les voitures autonomes tuent les gens?» La question à poser est: «tuent-ils les gens moins fréquemment que les conducteurs humains tuent des gens?» C’est donc la mauvaise question à poser: «Les gens ont-ils une conversation avec un chatbot, puis deviennent déprimés ou délirants ou se tuent-ils?» – Cela se produit sans aucun doute – mais cela se produit plus souvent que les gens ont une conversation avec leur thérapeute ou leur mère ou leur meilleur ami et deviennent déprimés ou délirants et ne veulent pas se suicider?
Donc, je dis que c’est une question empirique. Si vous constatez que non, les chatbots sont beaucoup plus dangereux que de faire face à des thérapeutes réelles, cela signifierait qu’ils présentent un certain danger, et nous devons absolument répondre. Mais dans de rares cas où de mauvaises choses se produisent – pour tout, des voitures autonomes aux vaccins en passant par les chatbots – ce n’est pas une raison de la fermer. Vous devez faire une analyse coûts-avantages.
Étant donné que l’une des choses que les utilisateurs aiment dans les chatbots d’IA est l’apparence de l’empathie, je me demande comment les arguments que vous avez présentés dans votre livre Contre l’empathie informer votre vision des compagnons de l’IA?
PUBLICITÉ
Les membres de Nautilus bénéficient d’une expérience sans publicité. Connectez-vous ou rejoignez maintenant.
Dans Contre l’empathieJ’avais beaucoup de soucis sur l’empathie en tant que guide moral. D’une part, c’est très biaisé – nous sommes beaucoup plus susceptibles de ressentir de l’empathie envers quelqu’un que nous connaissons, quelqu’un qui nous ressemble, quelqu’un qui parle notre langue. Et donc si vous laissez l’empathie guider qui vous vous souciez, votre attention sera en conséquence biaisée. Je ne pense pas que les chatbots aient de l’empathie, ce qui signifie que, en supposant qu’ils ont d’autres capacités, ils devraient être moins biaisés que les gens, et de cette façon, plus justes. Un thérapeute de l’IA est moins susceptible qu’un thérapeute humain, par exemple, d’être biaisé contre quelqu’un qui parle avec un accent. Lorsque nous disons que cela a l’apparence de l’empathie, nous voulons simplement dire qu’il fait un bon travail d’apparence sympathique, engagée et attentionnée. D’autres choses étant égales par ailleurs, ce sont de beaux traits pour un compagnon ou un thérapeute.
Les bébés ont quelque chose que l’IA ne fait pas: la conscience.
Une grande partie de vos recherches ont consisté à étudier les bébés et les jeunes enfants. Les bébés apprennent à parler pendant qu’ils apprennent le monde, alors qu’ils sont dans le monde. Les modèles de grandes langues comme Chatgpt semblent faire quelque chose de différent: ils acquièrent des données qui leur permettent de converser, mais il n’est pas clair combien ils comprennent vraiment sur le monde. Alors, les bébés ont-ils quelque chose qui manque des chatbots?
Dernièrement, j’ai travaillé à domicile et j’ai utilisé Chatgpt pour faire des choses comme lire les brouillons; Je lui ai posé des questions; Je lui ai demandé de comprendre des choses. À un moment donné, j’avais une liste d’adresses, et je voulais comprendre lequel était le plus proche de moi. Ce sont des choses très intelligentes. Chaque sorte de chose que vous considérez comme étant intelligente – des tests comme les compétitions de mathématiques SAT ou extrêmement de haut niveau – Chatgpt fait fantastique sur eux. Ces machines sont extrêmement intelligentes. Et pour nier cela, dire: «Oh, nous ne pouvons pas l’appeler intelligent. Nous ne pouvons pas l’appeler intelligence» – c’est juste un jeu de mots et ne devrait pas être pris au sérieux.
PUBLICITÉ
Les membres de Nautilus bénéficient d’une expérience sans publicité. Connectez-vous ou rejoignez maintenant.
Mais les bébés ont quelque chose que l’IA ne fait pas: la conscience. Il y a quelque chose que c’est comme être un bébé. Ils donnent chaque indication d’être capable de ressentir de la douleur et du plaisir. Ils sont sensibles. Aucun chatbot n’est. Les chatbots sont des perroquets stochastiques; Ce sont des assorties automobiles; Ce sont des algorithmes. Il n’y a personne à la maison. Si vous avez anéanti chaque chatbot du monde à la presse sur un bouton, vous rendez beaucoup de gens très tristes, mais à part cela, vous n’auriez rien fait de mal, car les chatbots n’ont pas de statut moral.
Dans votre livre le plus récent, Psychisme, Vous écrivez que le QI est «un sujet difficile à penser directement». L’idée même du QI comme mesure de l’intelligence a attiré beaucoup de scepticisme, mais vous pensez que c’est un concept utile?
Le QI est un certain type de test qui mesure l’intelligence. Comme tout test, c’est imparfait. Certaines personnes intelligentes pourraient mal faire des tests de QI, et certaines nuls pourraient bien faire. Mais l’intelligence est une chose réelle. C’est une capacité que les gens ont. Dans une certaine mesure, la puissance prédictive du QI est due à la façon dont nous avons conçu nos sociétés. C’est ce que Freddie [Fredrik] De Boer appelle «le culte de Smart»; Il a un livre de ce nom. Et De Boer souligne, je pense correctement, que dans l’Amérique moderne, pour faire très bien, vous devez obtenir votre diplôme universitaire. Et pour faire très bien, cela aide vraiment à obtenir son diplôme d’une université de la Ivy League. Eh bien, pour entrer dans une bonne université, vous devez très bien faire à l’école, et vous devez passer une série de tests comme le SAT, qui est fondamentalement un test de QI. Donc, nous l’avons vraiment truquée afin que l’importance du QI soit fortement exagérée, et l’importance d’autres capacités – comme la gentillesse, la compassion, l’imagination, l’humour – se réduisent en conséquence.
Et ce ne sont que les qualités qui diraient que les critiques manquent dans les IA. Alors, où cela nous laisse-t-il dans nos relations de plus en plus étroites avec l’IA?
PUBLICITÉ
Les membres de Nautilus bénéficient d’une expérience sans publicité. Connectez-vous ou rejoignez maintenant.
Je suis d’accord que les AIS n’ont pas ces choses. Mais ils font un excellent travail pour agir comme s’ils les avaient, et c’est tout ce qui est nécessaire pour les rendre attrayants en tant que compagnons proches.
Image du plomb: DrawLab19 / Shutterstock



