Breaking News

L’IA nous a déjà conduits sur la falaise

Explorer

EArly dans son nouveau livre Ces nouveaux esprits étrangesChris Summerfield, professeur de neurosciences cognitives et UK Google Deepmind, décrit une scène de dessin animé classique dans laquelle Wile E. Coyote vient d’être conduit sur une falaise par des coureurs de route, ses jambes tournant pour un sol solide alors qu’il place brièvement au-dessus du canyon ci-dessous, moments d’un plainte catastrophique. «J’écris ce livre parce que nous venons de passer en revue cette falaise», affirme Summerfield. «Le terrain sûr que nous avons laissé derrière est un monde où les humains seuls génèrent des connaissances.»

La connaissance est, après tout, le pouvoir. C’est ce qui a permis aux humains de construire des civilisations étincelantes sur Terre, d’explorer les tronçons de notre système solaire étoilé, de rêver d’œuvres d’art pliant et de saisir les dimensions matérielles, culturelles et politiques de nos réalités quotidiennes. Alors que les IA deviennent de plus en plus avertis pour produire et agir sur les connaissances, que feront-ils ou ceux qui les contrôlent en feront-ils? Dans qui intérêt, vont-ils agir, surtout si les IS commencent à coopérer les uns avec les autres?

Summerfield est, au moins dans un avenir immédiat, moins inquiet de la technologie elle-même que de la capacité des humains à comprendre comment elle fonctionne et à interagir avec intelligence. Et c’est, en partie, le but de Ces nouveaux esprits étranges: Pour aider les lecteurs à comprendre précisément comment fonctionnent les LLM, comment ils utilisent le langage et pourquoi les résultats ressemblent tellement à la pensée et à la parole humaines. Au cours du livre, il nous emmène dans une visite de l’histoire du développement de l’IA – de ses premiers fondements philosophiques à ses inspirations et impacts de la culture pop et explore notre éthique changeante en ce qui concerne ces nouveaux esprits.

En fin de compte, Summerfield soutient que les LLM ne sont pas sensibles – du moins pas en aucune façon, les humains peuvent comprendre – qu’ils ne prennent probablement pas le relais et détruisent le monde, mais qu’ils peuvent bien aggraver les problèmes existants. Après tout, les limites de l’IA ne sont pas si différentes de celles du cerveau humain, dit-il. Nous avons parlé avec Summerfield des limites et des risques d’une révolution technologique qui approche si rapidement que nous avons à peine eu le temps de le considérer.

PUBLICITÉ

Les membres de Nautilus bénéficient d’une expérience sans publicité. Connectez-vous ou rejoignez maintenant.

À l'image corporelle
Cliffhanger: Dans son nouveau livre Ces nouveaux esprits étranges: comment l’IA a appris à parler et ce que cela signifie, Le neuroscientistchris cognitif Summerfield soutient que, comme un dessin animé Wile E. Coyote, nous venons tous de passer en revue une falaise dans notre relation avec l’IA. «Le terrain sûr que nous avons laissé derrière est un monde où les humains seuls génèrent des connaissances.» Photo de Catalina Renjifo.

Vous utilisez Wile E Coyote comme métaphore pour la «falaise» que nous avons terminée en ce qui concerne l’IA. Comment sommes-nous arrivés ici?

La technologie n’a pas encore dépassé notre capacité à le contrôler, mais c’est la direction du voyage. La métaphore fait référence aux inconnues associées à un nouveau monde dans lequel les systèmes d’IA peuvent générer de nouvelles connaissances – la première fois qu’un agent autre qu’un humain est en mesure de le faire.

Quelle est la signification de la langue dans les modèles de grande langue?

PUBLICITÉ

Les membres de Nautilus bénéficient d’une expérience sans publicité. Connectez-vous ou rejoignez maintenant.

Pour les humains, la langue est notre superpuissance. Le langage est l’avance cognitive critique qui a débloqué notre capacité à coopérer et à collaborer et à construire une civilisation avancée. Le langage nous permet de partager les connaissances entre eux et de créer de nouvelles connaissances en combinant des idées: pensez à un cheval avec une corne – oh! Une licorne. Donc, le fait que l’IA ait appris à parler est un très gros problème.

Dans quelle mesure la maîtrise du langage de l’IA lui donne-t-elle certains des mêmes super-puisseurs que les humains, tels que la capacité de coopérer et de partager et de créer de nouvelles connaissances?

La coopération nécessite plus qu’un simple langage – elle nécessite la capacité de déduire les croyances et les préférences des autres et de s’adapter au monde social. Nous n’avons pas encore testé de situations où les LLM interagissent les uns avec les autres, pour comprendre quelles peuvent être les conséquences. Leur capacité à raisonner, cependant, donne aux systèmes d’IA la possibilité de créer de nouvelles idées, en rassemblant des connaissances existantes de manière nouvelle.

Les LLM «comprennent-elles» la langue ou sont-elles simplement douées pour agir comme ça?

PUBLICITÉ

Les membres de Nautilus bénéficient d’une expérience sans publicité. Connectez-vous ou rejoignez maintenant.

Le problème est que nous n’avons pas de définitions largement convenues pour ce que signifie «comprendre» quelque chose en premier lieu. «Comprenez-vous» comment fonctionne un moteur à combustion? «Comprenez-vous» pourquoi la Seconde Guerre mondiale s’est produite? Nous n’avons pas de critères forts pour faire des jugements stricts et rapides comme celui-ci. Ce que nous pouvons dire, cependant, c’est que la compétence formelle des LLMS dans la langue, y compris dans la génération d’énoncés entièrement nouveaux, est aussi bon que bon ou meilleur qu’un humain, du moins pour l’anglais et d’autres langues bien ressources.

La technologie n’a pas encore dépassé notre capacité à le contrôler, mais c’est la direction du voyage.

Dans le livre, vous explorez les affirmations selon lesquelles l’IA est devenue ou deviendra consciente. Comment la conscience de l’IA pourrait-elle avoir un impact sur la société?

Honnêtement, je ne pense pas du tout que cela affecterait la société, car nous ne saurions jamais si c’est conscient ou non. En ce qui concerne un agent autre que nous-mêmes, la conscience est très dans l’œil du spectateur – je ne peux pas ressentir votre subjectivité, mais si vous affichez certains comportements, je vous traiterai comme si vous êtes conscient. Nous le faisons tout le temps avec nos animaux de compagnie. Je m’attends à ce que, à mesure que l’IA devienne plus humaine, les gens vont croire que c’est conscient, mais nous ne saurons jamais avec certitude si c’est juste ou non.

PUBLICITÉ

Les membres de Nautilus bénéficient d’une expérience sans publicité. Connectez-vous ou rejoignez maintenant.

L’IA sera-t-elle un outil ou une nouvelle forme de personne?

Je pense qu’il est plus utile de considérer l’IA comme un outil, et en particulier comme une sorte de service numérique que nous pouvons utiliser pour prendre des décisions en notre nom. Les gens doivent se rappeler que lorsque vous parlez à l’IA, ils n’interagissent pas avec une personne – ils utilisent un service fourni par une entreprise technologique. Mais s’il se comporte de manière humaine, il sera certainement tentant de traiter l’IA comme un humain. Cependant, je ne suis pas convaincu que ce dont nous avons besoin est plus d’humains – nous en avons déjà 8 milliards. Nous avons besoin de meilleurs outils pour organiser la société, afin que nous puissions vivre ensemble plus pacifiquement, prospère et équitablement – des variables qui sont en manque de nettement.

LLMS peut-il «penser?»

Les LLM effectuent des étapes de raisonnement dans le langage naturel qui ressemblent à celles que vous et moi pourrions faire lors de la résolution d’un problème. Ils peuvent même dire ces étapes à haute voix pendant qu’ils raisonnent et – tout comme pour vous et moi – cela améliore leurs chances de trouver une bonne solution. Mais nous n’avons pas vraiment clairement défini ce que cela signifie pour un humain de «penser», donc il y aura toujours de la place pour certaines personnes de prétendre que ce que font les systèmes d’IA ne comptent pas comme une «pensée».

PUBLICITÉ

Les membres de Nautilus bénéficient d’une expérience sans publicité. Connectez-vous ou rejoignez maintenant.

Dans le livre, vous repoussez l’idée que l’utilisation du mot «calcul» comme métaphore de la pensée humaine est en quelque sorte socialement oppressive. Pourquoi?

Certaines personnes ont soutenu que si nous utilisons la métaphore que le cerveau calcule les informations, nous abaissons en quelque sorte les gens au niveau des ordinateurs, et que cela est intrinsèquement nocif. Je suis d’accord qu’il est important pour nous de maintenir une notion de «différence» humaine – nous avons nos propres préoccupations, et elles devraient être chéris – mais je pense que l’idée générale qu’il est oppressant d’utiliser le calcul comme métaphore du cerveau est un peu idiot. C’est juste une façon utile de penser à penser.

Les gens doivent se rappeler que lorsqu’ils parlaient à l’IA, ils n’interagissent pas avec une personne.

Vous discutez des risques posés par l’AI «Autopropaganda». En quoi cela différerait-il de la désinformation numérique à laquelle nous sommes confrontés aujourd’hui?

PUBLICITÉ

Les membres de Nautilus bénéficient d’une expérience sans publicité. Connectez-vous ou rejoignez maintenant.

Les algorithmes intégrés dans des systèmes de recommandation de contenu, tels que les plateformes de médias sociaux, garantissaient déjà que nous visions «autopropaganda» – propagande pour les opinions que nous détenons déjà, c’est-à-dire qui confirme nos croyances existantes. Si l’IA devenait hautement personnalisée, il y a un risque qu’il puisse se comporter de la même manière, vous disant seulement ce que vous voulez entendre. La différence serait que les systèmes d’IA peuvent activement s’engager avec vous dans le dialogue persuasif, donc l’effet risque d’être beaucoup plus fort.

Beaucoup de gens envisagent un avenir proche où l’IA résout les questions imminentes de la journée, mais comme vous le discutez dans le livre, cette attente peut être déplacée. Pourquoi?

L’IA est très bonne pour récupérer les connaissances et le raisonnement sur les problèmes formels, mais bon nombre des problèmes auxquels nous sommes confrontés aujourd’hui nécessitent une sorte de compétence différente – la capacité de rassembler les gens pour coopérer. Nous n’avons pas encore vu beaucoup de preuves que l’IA est bonne dans ce domaine – bien qu’il y ait eu des tentatives précoces, dont une que j’ai menée à Deepmind. [A study on whether AI can function as a political mediator.] La capacité de résoudre des problèmes formels, comme jouer au niveau du Grandmaster ou à résoudre des puzzles logiques, ne vous équivalait pas nécessairement pour le monde réel, où les choses ont tendance à être assez désordonnées. Les résultats sont incertains – stochastiques plutôt que déterministes – et des défis peuvent survenir sans avertissement.

Vous fermez le livre en explorant certains des scénarios potentiels de l’IA Doomsday. Qu’est-ce qui vous inquiète le plus?

PUBLICITÉ

Les membres de Nautilus bénéficient d’une expérience sans publicité. Connectez-vous ou rejoignez maintenant.

L’arrivée de l’IA est susceptible d’exacerber des problèmes systémiques qui existent déjà, comme la perturbation du marché du travail de l’automatisation croissante, la concentration du capital entre les mains de grandes sociétés multinationales, la propagation des attaques MIS / Désinformation dans l’écosystème de l’information, l’utilisation des cyber-technologies de la demande intensive ou de déstabilisation de l’énergie et de l’infrastructure critique et des coûts environnementaux de la demande intensive de demande d’énergie et de mineons rares.

Je m’inquiète de ce qui se passera lorsque les systèmes d’IA commencent à interagir les uns avec les autres. En tant qu’humains, nous ne sommes pas si intelligents par nous-mêmes. Vous pourriez penser que vous êtes plus intelligent qu’un chimpanzé, mais si je vous suis bloqué tous les deux sur une île déserte, mon argent est sur le chimpanzé survivant plus longtemps. Nous sommes bons en coopération et notre intelligence est pertinente par notre monde social. Lorsque les agents commencent à interagir, ils trouveront naturellement des modes d’action et de communication qui peuvent être mal alignés avec les valeurs humaines. C’est ce qui m’inquiète le plus!

Image de plomb: Cybermagicicic / Shutterstock

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button