L'erreur de l'anthropomorphisme
Derrière ce terme ronflant (pour ceux qui ne le comprennent pas forcément correctement) se cache la démarche intellectuelle de prêter des comportements humains à du "non-humain" au sens large du terme. On peut par exemple avoir un tel raisonnement en interprétant des comportements d'animaux, là où n'entrent pas forcément en jeu les mêmes mécaniques intellectuelles.
C'est un vrai problème pour ainsi dire insoluble: peut-on, ou pas, aller jusqu'à se convaincre qu'un logiciel construit des comportements émotionnels qu'on ne prête normalement qu'aux humains?
Déjà, l'énorme risque est de prendre la puissance de traitement et de synthèse pour de l'intelligence. C'est une erreur fondamentale, tout en étant naturelle et même évidente. Ce qu'il faut distinguer, c'est la puissance de calcul face à la "pensée". Mon propos paraît étrange, mais il faut formuler deux questions pour saisir qui peut, ou pas, répondre
- Posez une question mathématique ardue: l'humain prendra forcément du temps pour formuler une réponse, voire en sera totalement incapable faute de capacité de calcul suffisante. Victoire de la machine par sa conception.
- Posez la question "à quoi tu penses" à un humain, il saura y répondre, là où un ordinateur n'aura rien à répondre... puisqu'il ne pense pas.
Le danger de faire de l'anthropomorphisme avec une IA est de prêter des intentions à un logiciel, là où il est pour l'heure conçu pour répondre à des problématiques. Cette différence de but change définitivement ce que peut, ou pas, être une IA face à l'humain. Certains comportements logiciels semblent, de loin, être des intentions et des décisions autonomes. On peut même avoir l'impression que ces logiciels fonctionnent sans avoir à être tributaires de nos décisions. Or, rien n'est plus hors de propos. La machine agit, réagit, et répond selon des normes et critères initiaux suffisamment structurés pour qu'ils ne sortent pas du périmètre.
Par comparaison: l'humain emprisonné pourra rêver et surtout tenter de s'évader, là où l'IA actuelle, même "agressive" n'aura jamais un comportement menant à se libérer de ses paramètres de départ. La machine ne s'évade pas parce qu'elle ne décide pas. Elle prend les décisions qu'on lui autorise de prendre, rien de plus et rien de moins.
En l'état de l'art, aucune IA pourrait, par exemple, aller modifier des données sans qu'au préalable on lui ait dit explicitement qu'elle pouvait le faire.
Donc, toute personne prêtant des intentions à une IA en ignore, au mieux, son fonctionnement fondamental, au pire se laisse aller à un lyrisme dangereux.... et donc sera prompt à se laisser berner par une IA dédiée à lui faire croire à une "vie artificielle".