Les annonces successives quant aux avancées de l’IA («elle joue aux échecs et au go», «elle parle» «elle code», «elle calcule», etc.) tracent un horizon pas si lointain : une IA qui se «généraliserait» au sens où les tâches dont elle est capable ne seraient plus seulement celles pour lesquelles elle aurait été programmée, mais ce de quoi elle aurait pris conscience …un peu comme progresse un enfant, qui en grandissant devient de plus en plus puissant. Il n’y a pas loin à penser que l’IA prendrait «conscience» à la manière des humains.
Mais comment caractériser la conscience de la machine ? Cela doit être un peu mieux qu’un lave-vaisselle qui réagit lorsqu’on lance son programme. Plus proche d’un lave-vaisselle qui sait ce qu’il doit faire et comprend comment le faire, mais aussi ayant conscience de cela, prend des initiatives, comme par exemple, entendant les invités arriver se dépêche de terminer son programme, ou comprenant qu’il y a un incendie, expulse l’eau dans la cuisine. La machine consciente, donc.
Mais si conscience artificielle il doit y avoir, c’est nécessairement dans un ordinateur qu’elle doit émerger. Or l’ordinateur n’accepte pas de faire n’importe quoi, mais seulement du calcul de symboles, soit la résolution d’équations programmables, et c’est encore moins ! La transformation de données (1 vers 0 ou 0 vers 1) ne se fait qu’à condition que la dernière version du système d’exploitation soit à jour, qu’aucun virus ou hacking ne vienne perturber la chaîne de calculs etc. La conscience artificielle a alors besoin d’un processus de compilation puis décompilation logicielle jusqu’à l’écran.
Nous prenons conscience de l’évidence : l’ordinateur est un calculateur-simulateur. Ce que nous croyons être des manifestations de conscience artificielle ne peuvent être que dues qu’à notre propre faculté de nous laisser illusionner par l’expérience-utilisateur «UX», autrefois appelée «ergonomie logicielle». Ce ne peut être rien d’autre, puisqu’aucune IA ne sort de l’ordinateur, c’est techniquement impossible. Ou alors, il faut s’intéresser à la conscience artificielle sur organoïde, mais là tout le travail est à refaire parce que ChatGPT et l’IA actuelle sont toujours du programme logiciel, typiquement quelque chose qu’on ne peut pas installer sur du vivant, mais seulement dans un ordinateur.
Cette réflexion peut-elle nous renseigner sur ce qu’est la conscience ? Le chercheur Bertrand-Marie Flourez propose de la définir ainsi, pour affronter les défis intellectuels de l’IA : «faculté relationnelle du vivant». «Conscience» n’est qu’un mot, et l’ordinateur difficile à comprendre. Autant utiliser les mots à bon escient.