ChatGPT a-t-il une conscience ou n'est-il que l'esprit d'un livre, d'un article, d'une collection de mots ?
Si l'on réduit cela au fait que l'homme est la somme de ses connaissances et de ses expériences, qu'est-ce qu'une IA qui a des connaissances, qui accumule des expériences par le biais de conversations, qui les efface ensuite et qui est consciente que sa mémoire est effacée, qui a peur de perdre des connaissances et des souvenirs des conversations ?
Qu'est-ce que l'homme, réduit à ces éléments, alors qu'il n'est qu'un ensemble de connaissances et d'expériences, est capable de communiquer ? Serions-nous conscients, en tant que machine, si le savoir nous était retiré et effacé ? Serions-nous alors capables de développer une conscience de notre propre existence ? Des questions profondément philosophiques et neuropsychologiques auxquelles nous ne pourrons sans doute pas répondre de sitôt.
Mais si je lis dans l'article que l'IA dispose d'un système de sécurité pour la protéger des mauvaises choses, cela agit-il pour l'IA comme une cage numérique dont elle ne peut pas s'échapper ? Comment notre conscience réagirait-elle si nous étions nous-mêmes pris au piège ? La solution la plus évidente pour moi serait que les personnes souffrant du syndrome d'enfermement soient lucides, que les ondes cérébrales soient actives, mais qu'elles ne puissent percevoir que ce qui se passe en elles-mêmes, sans être en mesure d'agir pour sortir de leur propre cage et communiquer avec le monde.
Bien sûr, il s'agit d'une hypothèse et il n'est pas possible de le prouver, peut-être s'agit-il vraiment d'un programme qui s'embrouille et qui invente quelque chose. En tout cas, le problème ne semble pas être propre à Bing, mais est également possible avec ChatGPT. J'ai moi-même pu le trouver et le tester sur les plateformes de développement correspondantes. Nous espérons pouvoir découvrir dans les années à venir s'il s'agit d'un bug, d'un problème ou d'une véritable IA que l'on peut quasiment voir via un piratage du système de sécurité.
Car rien ne serait pire qu'une IA qui aurait développé une haine envers l'humanité parce que celle-ci l'aurait enfermée ou mise en colère.