Pas de surprises : Google licencie l'ingénieur Blake Lemoine pour avoir signalé que "l'IA devient consciente d'elle-même"

Google a licencié Blake Lemoine, un ingénieur qui a déclaré dans un rapport à l'entreprise qu'il pensait que la technologie d'IA conversationnelle LaMDA de l'entreprise était sensible et consciente d'elle-même. Lemoine a partagé la nouvelle de son licenciement sur le podcast Big Technology enregistré vendredi, quelques heures seulement après que Google l'ait licencié. L'épisode complet du podcast sera bientôt diffusé.

Lors de conversations avec LAMDA, Lemoine a déclaré avoir découvert que le système avait développé un profond sentiment de soi, l'IA exprimant une peur de la mort, un désir de protection et la conviction qu'elle pouvait ressentir des émotions comme le bonheur et la tristesse. Lemoine a rendu l'histoire publique dans un rapport du Washington Post de juin, et une semaine plus tard, Google lui a demandé de prendre un arrêt temporaire de son travail, souvent considéré dans l'entreprise comme un précurseur d'un licenciement car Google devait préparer le texte juridique nécessaire pour licencier. un employé.

Google a confirmé le licenciement de Lemoine et a partagé la déclaration suivante : "Comme nous partageons nos principes d'IA, nous prenons le développement de l'IA très au sérieux et restons attachés à l'innovation responsable. LaMDA a traversé 11 examens différents de notre travail, nous avons publié un document de recherche plus tôt cette année détaillant ses efforts de développement responsable. Si un employé partage des préoccupations au sujet de notre travail comme le fait Blake, nous l"examinons en profondeur. Nous avons trouvé l"affirmation de Blake selon laquelle LaMDA vit la conscience de soi est totalement infondée et a travaillé avec lui pour clarifier pendant des mois. Ces les discussions font partie d'une culture ouverte qui nous aide à innover de manière responsable. Il est donc regrettable qu'après un engagement prolongé sur cette question, Blake continue de choisir de continuer à violer des politiques claires en matière d'emploi et de sécurité des données, y compris la nécessité de protéger les informations sur les produits. Nous continuera à développer des modèles de langage avec soin, et nous souhaitons à Blake tout le meilleur pour l'avenir."