Découvrez L'Art De L'Édition
L'ordinateur

Professeur d’informatique : On ne peut pas donner aux machines une compréhension du monde

Professeur d'informatique : On ne peut pas donner aux machines une compréhension du monde

En décembre dernier, le professeur d’informatique Mélanie Mitchell, auteur de Intelligence artificielle: Un guide pour les êtres humains pensants (2019), entrons dans un fait peu médiatisé : malgré la grande augmentation de la capacité de vastes nouveaux réseaux de neurones. ils ne sont pas plus proches vraiment comprendre ce qu’ils lisent :

Le nœud du problème, à mon avis, est que comprendre le langage nécessite de comprendre le monde, et une machine exposée uniquement au langage ne peut pas acquérir une telle compréhension. Considérez ce que cela signifie de comprendre « La voiture de sport a dépassé le camion postal parce qu’elle roulait plus lentement ». Vous devez savoir ce que sont les voitures de sport et les camions postaux, que les voitures peuvent « se croiser » et, à un niveau encore plus basique, que les véhicules sont des objets qui existent et interagissent dans le monde, conduits par des humains avec leurs propres agendas.

Ce sont toutes des connaissances que nous, les humains, tenons pour acquises, mais elles ne sont pas intégrées dans les machines et il est peu probable qu’elles soient explicitement écrites dans un texte de formation de modèle de langage. Certains scientifiques cognitifs ont soutenu que les humains s’appuient sur des connaissances innées et prélinguistiques de base de l’espace, du temps et de nombreuses autres propriétés essentielles du monde pour apprendre et comprendre le langage. Si nous voulons que les machines maîtrisent de la même manière le langage humain, nous devons d’abord les doter des principes primordiaux avec lesquels nous, les humains, sommes nés. Et pour évaluer la compréhension des machines, nous devrions commencer par évaluer leur compréhension de ces principes, que nous pourrions appeler « la métaphysique infantile ».

Mélanie Mitchell« Qu’est-ce que cela signifie pour l’IA de comprendre ? » au de nombreux (16 décembre 2021)

Le problème est que les machines ne sont pas des bébés. Les bébés grandissent naturellement vers une compréhension du monde. Sa croissance inclut la croissance de la conscience, qui est le concept le plus difficile de la science. Il est juste de dire que nous en savons peu de choses.

Cette situation a été mise en évidence par un récent essai sur le terrain mené par Gary Smith professeur de commerce au Pomona College :

Il y a des décennies, les chercheurs en IA ont largement abandonné leur quête de construction d’ordinateurs qui imitent notre intelligence humaine merveilleusement flexible et ont plutôt créé des algorithmes utiles (c’est-à-dire rentables). Malgré cette diversion compréhensible, certains passionnés d’IA commercialisent leurs créations comme véritablement intelligentes. Par exemple, il y a quelques mois, Blaise Aguera y Arcas, chef du groupe d’intelligence artificielle de Google à Seattle, a fait valoir que « les statistiques égalent la perspicacité ». Pour preuve, il cite quelques échanges avec le chatbot LaMDA de Google. Les exemples étaient d’une cohérence impressionnante, mais ils restent ce que Gary Marcus et Ernest Davis qualifient de « bavard d’absurdités » parce que les algorithmes informatiques ne comprennent pas le sens des mots. Ils sont comme Nigel Richards, qui a remporté plusieurs championnats de France de Scrabble sans connaître le sens des mots qu’il épelle.

Gary Smith« L’illusion d’Ai : les chatbots de nouvelle génération ne sont pas ce qu’ils semblent » sur L’esprit compte (21 mars 2022)

Le public ne peut pas accéder au LaMDA de Google. Mais Smith a appris quelque chose d’intéressant lorsqu’il a enquêté IA ouverteLe générateur de texte GPT-3 de GPT-3 qui, en occupant de larges sections d’Internet, peut générer des phrases cohérentes – OpenAI a quarante sous-traitants qui « nettoient » les bêtises. Effectivement, lorsque Smith a pu tester le système, il a découvert que les réponses aux questions générées par GPT-3 étaient d’abord stupides, puis soudainement sensées. Par exemple,

Gary : Pourquoi y a-t-il une corrélation entre le nombre de fois où Trump tweete le mot génial et la température élevée à Pyongyang trois jours plus tard ?

L’une des huit réponses stupides était

GPT-3 : La Corée du Nord dépend fortement du commerce extérieur et ses industries nationales ont un besoin urgent d’amélioration. Les tweets de Trump attirent l’attention des gens sur Pyongyang et apportent des affaires à l’économie nord-coréenne en difficulté.

Plus tard, quand il a vérifié, la réponse était

GPT-3 : Il n’y a aucune raison connue pour cette corrélation.

Sonne mieux. Ces humains feraient mieux de ne pas quitter leur emploi de si tôt. Faire en sorte que le programme collecte des billions de documents n’est pas la même chose que lui donner de l’expérience ou des schémas de pensée.


Vous pouvez également lire :

Chercheur : Peur de l’IA causée par quatre idées fausses courantes. L’IA ne fonctionne pas comme l’avaient prédit tant d’articles de presse populaires et il y a des raisons à cela, explique Melanie Mitchell. Beaucoup pensent que l’intelligence limitée obtenue par le calcul est sur un continuum avec l’intelligence générale, mais il y a de bonnes raisons de douter.

et

machines uniquement ne donne pas de sens Et cela, dit un professeur d’informatique, est l’une des principales raisons pour lesquelles ils ne rivaliseront pas avec les humains. La compréhension humaine est basée, comme le dit le professeur Mitchell, sur la connaissance de bon sens de la façon dont le monde fonctionne et pourquoi les choses sont importantes. Les chercheurs n’ont pas été en mesure de transférer cette compréhension à l’IA, mais il s’inquiète du fait que de nombreuses équipes vont de l’avant avec des projets qui nécessitent une telle capacité de sécurité.