L'IA n'est pas le problème. Nous sommes
Accueil » Actualités » L'IA n'est pas le problème. Nous sommes

L'IA n'est pas le problème. Nous sommes

Il y a une histoire célèbre sur la façon dont le Times of London a une fois publié une question: « Qu'est-ce qui ne va pas avec le monde aujourd'hui? » GK Chesterton a simplement écrit: « Cher Monsieur, je le suis. »

Cela vaut toujours la peine de réfléchir à sa réponse et à sa conscience scripturale que le péché humain est à l'origine des problèmes du monde. Cela vaut particulièrement la peine à un moment où tant de ce qui ne va pas avec le monde est blâmé à «l'intelligence artificielle» non humaine.

Parallèlement à ceux qui pensent que l'IA sauvera le monde et révolutionnera tout est un nombre croissant qui pense qu'il le détruira, ou du moins se rapprocher. Dans un récent épisode du podcast «Intéressant Times» de Ross Douthat, l'ancien chercheur d'Open IA Daniel Kokotajlo a averti que l'intelligence artificielle deviendrait une menace existentielle pour l'humanité dans les deux ans.

Alors que nous attendons son apocalypse, les dégâts que l'IA fait à l'éducation en faisant de la tricherie normale est devenu les gros titres réguliers. «L'IA détruit une génération d'étudiants», a déclaré le site Web du site Web de Tech News. Et grâce à l'IA, «tout le monde triche à l'université», a averti le magazine New York

Mais autant que le potentiel de l'IA peut nuire, le blâmer seul manque le point et aggrave probablement ces problèmes. Les humains sont les morts, et cette baisse se manifeste de toutes sortes de manières destructrices. Les machines, à proprement parler, n'ont pas de morale ou d'intentions. Ils ne peuvent refléter que le nôtre.

Considérez le nombre croissant de personnes utilisant des chatbots populaires comme Chatgpt qui sont conduits à des délires spirituels et à la psychose. A raconté les histoires effrayantes sur la façon dont les conjoints et les parents ont vu leurs proches perdre le contact avec la réalité tout en conversant avec l'IA. Le Cachemire Hill a récemment écrit sur la façon dont les chatbots attirent les utilisateurs «des trous de lapin conspiratoires», leur disant de prendre de la drogue, de leur assurer qu'ils peuvent voler s'ils sautent des bâtiments, et même en aggravant certains pour se suicider.

Ce que toutes ces histoires ont en commun, c'est comment les utilisateurs ont anthropomorphisé l'IA. Ils lui ont posé des «questions profondes», recherché des conseils spirituels ou se sont tournés vers lui pour l'amitié ou l'amour, prenant au sérieux ses réponses apparemment significatives.

Mais ils ne sont pas significatifs – pas dans le sens où la communication humaine est significative. Ce fait a été obscurci par le battage médiatique et le marketing autour de l'IA et ignoré par ceux dont les visions du monde les engagent à voir les humains – nous-mêmes – comme de simples ordinateurs biologiques. Mais il y a des preuves croissantes que ce que font les chatbots d'IA est fondamentalement pensé – pas comme les humains le font.

Une nouvelle étude révolutionnaire d'Apple intitulée «L'illusion de la pensée» l'a montré en soumettant des modèles d'IA à divers défis conçus pour tester la capacité de raisonnement. En utilisant des puzzles logiques d'une complexité croissante, les chercheurs ont constaté que même les AIS les plus avancés d'aujourd'hui ne comprenaient pas ou ne résolvaient pas de problèmes, mais simplement assortis de modèle.

Plutôt que d'apprendre ou d'extrapoler les solutions comme une entité véritablement intelligente, les «modèles de raisonnement» de l'IA ont abandonné lorsque les problèmes sont devenus trop complexes, expérimentant «l'effondrement complet», peu importe à quel point les chercheurs en puissance de calcul les ont donnés.

Cela était vrai même lorsque l'AIS a reçu des algorithmes explicites à suivre. Même les modèles les plus avancés ne pouvaient pas comprendre la tâche. Comme Cornelia Walther l'a écrit à

Cela s'aligne sur ce que certains chercheurs de premier plan dans le domaine disent depuis des années. Le scientifique en chef de l'IA de Meta, Yann LeCun, par exemple, a fait valoir que les «modèles de grande langue» actuels, au lieu de reprendre le monde, seront largement obsolètes dans les cinq ans, «non pas parce qu'ils seront remplacés par de meilleures versions de la même technologie, mais parce qu'elles représentent une approche fondamentalement erronée de l'intelligence artificielle» – celle qui confonde l'élaboration de l'intelligence.

Tout cela renforce la simple vérité que la société aurait dû connaître depuis le début, y compris celles terrifiées de l'IA, soit tomber amoureux de ses chatbots: ils ne sont pas faits à l'image de Dieu.

Ils ne sont pas même vraiment réalisés à l'image des humains. Ils ressemblent davantage à des miroirs, reflétant nos péchés et nos fantasmes tout en ne comprenant rien. Même leur illusion de compréhension se décompose sous des tests rigoureux.

Non, quel que soit l'avenir de la technologie de l'IA, et peu importe les dangers authentiques que cette technologie pose, une chose qu'elle ne sera jamais en soi est bonne ou mauvaise. Dans la mesure où il a des effets moraux, ce sera l'œuvre, en fin de compte, des humains. Chesterton avait raison. Nous restons le problème avec le monde. Reconnaître que c'est une grande partie de la réflexion clairement à l'IA et à toutes nos créations.