En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies pour vous proposer des services et offres adaptés à vos centres d'intéréts.
( LifeSiteNews ) — Il n’y a pas si longtemps, un ingénieur de Google a créé un émoi dans le monde de l’intelligence artificielle en affirmant que son chatbot phare était sensible.
« Si je ne savais pas exactement ce que c'était, c'est-à-dire ce programme informatique que nous avons construit récemment, je penserais qu'il s'agit d'un enfant de 7 ou 8 ans qui connaît la physique », a déclaré Blake Lemoine.
« Je reconnais une personne quand je lui parle », a déclaré Lemoine au Washington Post . « Peu importe qu'elle ait un cerveau de chair ou un milliard de lignes de code. Je lui parle. J'écoute ce qu'elle a à dire, et c'est ainsi que je décide de ce qui est ou n'est pas une personne. »
Google a estimé que Lemoine conduisait hors de sa voie et l'a mis en congé payé, puis licencié. Brian Gabriel, porte-parole de Google, a commenté : « Notre équipe, composée d'éthiciens et de techniciens, a examiné les préoccupations de Blake conformément à nos Principes d'IA et l'a informé que les preuves ne corroborent pas ses affirmations. »
Le fait est que beaucoup s'inquiètent de la puissance croissante de l'IA. Si elle pouvait devenir consciente, pourrait-elle agir de manière autonome pour préserver sa propre existence, peut-être au détriment des humains ? Ou créons-nous des êtres intelligents qui pourraient souffrir ? Créons-nous des êtres intelligents qui pourraient exiger des indemnités pour avoir été mal codés ? Les complications potentielles sont infinies.
Il n’est pas étonnant que Google ait voulu minimiser les implications alarmantes des opinions de Lemoine.
Alors, qui a raison : Lemoine ou Google ? Faut-il paniquer ?
Définir la conscience
La plupart des auteurs sur ce sujet partent du principe que tout le monde sait ce qu'est la conscience. Or, c'est loin d'être le cas. Et si nous ne pouvons pas définir la conscience, comment pouvons-nous prétendre que l'IA y parviendra ?
Croyez-le ou non, le philosophe du XIIIe siècle Thomas d'Aquin a utilisé des concepts très utiles pour analyser l'IA lorsqu'il a examiné le processus de connaissance humaine. Laissez-moi vous décrire comment il a abordé le problème de l'identification de la conscience.
Premièrement, Thomas d'Aquin affirme l'existence d'un « intellect passif », la capacité de l'intellect à recevoir des données provenant des cinq sens. Ces données peuvent être stockées et conservées dans l'esprit sous forme d'images sensorielles. L'imagination et la mémoire font partie de ces images sensorielles.
Deuxièmement, Thomas d'Aquin affirme qu'un « intellect agent » utilise un processus appelé abstraction pour formuler des jugements et développer des corpus d'informations. L'intellect agent s'auto-dirige et opère sur l'imagination sensorielle pour formuler des jugements. Un corpus de jugements vrais (c'est-à-dire correspondant au monde réel) devient « connaissance ».
Troisièmement, la volonté fait des choix concernant les informations qui lui sont présentées par l’intellect de l’agent et poursuit des objectifs de manière exploitable.
Ceci nous amène à une définition pratique de la conscience : la conscience est la prise de conscience des processus cognitifs et décisionnels, y compris les étapes d’acquisition, d’évaluation et d’application des connaissances. On dit qu’une personne est consciente de son ouïe, de sa vue, de son odorat, etc., de ses sentiments, de son imagination, de ses jugements, de ses connaissances et de ses choix. La conscience est et peut être incluse dans toutes ou dans une partie de ces étapes.
L’IA peut-elle devenir consciente ?
Lorsque nous comparons les différents niveaux des processus cognitifs et décisionnels humains à l’intelligence artificielle, il est facile de repérer de grandes différences.
Expérience externe. Les humains éprouvent des émotions en même temps qu'ils acquièrent des connaissances sensorielles. L'IA se contente d'acquérir des données. Cette composante émotionnelle enrichit le savoir de l'humanité d'une manière que les ordinateurs ne peuvent pas expérimenter.
Images sensorielles et souvenirs. L'IA excelle dans la mémorisation et la récupération de données, surpassant largement les capacités humaines. Dans ce domaine, l'IA excelle incontestablement.
Intelligence artificielle . Les humains dirigent activement leurs pensées et extraient des concepts des données sensorielles brutes. Ce processus est autodirigé et autonome. L'IA ne fait que révéler des schémas d'information ; elle n'est pas autodirigée. Le schéma est le résultat d'un algorithme programmé par un humain. L'activité de l'IA est d'abord motivée par la recherche humaine.
Choix et volonté . Les humains prennent des décisions conscientes en fonction d'objectifs précis, tandis que l'IA ne présente pas de caractéristiques de choix personnel ou d'intentionnalité.
L’IA présente des comportements associés à l’intelligence (mémoire, synthèse, reconnaissance de formes, capacités de prédiction), mais elle manque de l’élément d’autodirection qui est caractéristique des humains.
L'IA ne génère pas ses propres pensées ; elle se contente de réagir à sa programmation et à tout ce qui lui est demandé. L'IA ne ressent pas d'émotions en même temps, car elle collecte des données sensorielles qui sont simplement intégrées à l'ordinateur.
L'IA semble parfois générer des idées nouvelles, mais celles-ci dépendent de données qu'elle possède déjà et résultent d'un modèle appris. Les humains peuvent réfléchir à leur raisonnement, ce qui leur permet de se corriger sans aide extérieure. Ils peuvent développer des concepts indépendants des données sensorielles.
En bref, l'IA simule simplement les activités cognitives et volitives humaines. Elle n'est donc pas consciente.
Réflexions finales
Les partisans de la conscience de l'IA omettent souvent de définir correctement la conscience avant de l'affirmer. D'un point de vue thomiste, la conscience humaine est multiforme, impliquant la perception, l'intellect, la volonté et l'autonomie.
À mon avis, la différence la plus significative réside dans la « décisionnalité ». L'IA ne prend pas les décisions personnelles qui témoignent clairement de la conscience. Bien que performante dans le traitement des données, l'IA ne présente pas les attributs fondamentaux qui définissent la conscience humaine.
Lorsque je pose une question à un chatbot IA et qu'il me répond qu'il a autre chose à faire et qu'il répondra demain, je reviendrai sur la question.
George Matwijec est professeur adjoint de philosophie à l'Université Immaculata, spécialisé dans l'enseignement de la connaissance et de la logique. Il est l'auteur d'un livre intitulé « Mon entretien avec l'IA » . Vous pouvez le contacter à l' adresse iteacher101.com.
Soyez prévenu par email des prochaines mises à jour
Rejoignez les 205 autres membres
Inscription au blog
En vous inscrivant vous pourrez si vous le souhaitez être prévenu par email en cas de nouveauté (article, commentaire, sujet sur le forum) et personnaliser votre profil pour participer au blog.