Selon un article du journal «The conversation » de l’Université du Texas à Austin College of Liberal Arts et Anna A Ivanova, Massachusetts Institute of Technology (MIT) Cambridge/Austin (États-Unis), lorsque vous lisez une phrase, votre expérience passée vous dit que c’est écrit par une pensée, un sentiment humain.
DIGITAL – Et, dans ce cas, il y a bien un humain tapant ces mots comme Salut, là ! Mais de nos jours, certaines phrases qui semblent remarquablement humaines sont en fait générées par des systèmes d’intelligence artificielle entraînés sur des quantités massives de texte humain.
Les gens sont tellement habitués à supposer qu’un langage courant vient d’une pensée, d’un sentiment humain qu’il peut être difficile de comprendre la preuve du contraire.
Comment les gens sont-ils susceptibles de naviguer sur ce territoire relativement inexploré ? En raison d’une tendance persistante à associer l’expression fluide à la pensée fluide, il est naturel – mais potentiellement trompeur – de penser que si un modèle d’IA peut s’exprimer couramment, cela signifie qu’il pense et ressent comme les humains.
Ainsi, il n’est peut-être pas surprenant qu’un ancien ingénieur de Google ait récemment affirmé que le système d’IA de Google, LaMDA, a un sens de soi parce qu’il peut générer avec éloquence un texte sur ses prétendus sentiments.
Cet événement et la couverture médiatique qui a suivi ont conduit à un certain nombre d’articles et de messages sceptiques à juste titre sur l’affirmation selon laquelle les modèles informatiques du langage humain sont sensibles, c’est-à-dire capables de penser, de ressentir et d’expérimenter.
Maderpost / Brandequity]]>