Pour rebondir sur cet appel, je pense que les acteurs qui repoussent l'idée de l'usage intensif de l'IA perdent de vue l'essentiel à savoir que ce n'est pas l'outil qui est dangereux, c'est son usage.
Tous font la même erreur de craindre la singularité, ainsi que de fuir les mutations inévitables de la société. Il en est allé de même avec la mécanisation, avec l'industrialisation, et même l'internet. On se souviendra des crises chez les petits commerçants voyant avec horreur l'arrivée du net comme concurrent crédible...
Dans l'absolu, l'IA est dangereuse au seul titre qu'on peut lui confier des tâches complexes, et parmi elles qui ont un lien immédiat avec les aspects sociaux. Je tiens tout de même à rappeler que dire "On ne sait pas ce que va répondre le programme" est une vaste ineptie. Comme tout logiciel, ce que répond une IA est tributaire de trois critères: ce qu'on lui donne à digérer, les brides logicielles mises dans les réponses à obtenir, ainsi que la manière dont l'IA doit répondre. L'apprentissage? C'est un mot surfait! Les IA "apprennent"? NON: elles essayent, elles éliminent les branches "inutiles" par pondération statistique. En gros: plus la réponse semble pertinente, plus les autres réponses seront repoussées.
Pourquoi Bing répond n'importe quoi, voire même invente et martèle des âneries? Parce que le mode de réponse est "réponds même si ta réponse n'est pas suffisamment confirmée". C'est d'ailleurs LA tare de la plupart des outils informatiques: donner une réponse quoi qu'il en coûte. A ce titre, Google répond aussi des inepties, des approximations... Vous en doutez? La plupart des réponses supposées ne pas aboutir donnent toujours un résultat dont la pertinence est proche du néant. Petit exemple
"image de canard lançant des grenades' . Oui, la recherche semble absurde, mais cela pourrait être issu d'une BD par exemple. Google répond quoi? Quelques images de canards, quelques images de grenades (le fruit ou l'arme) et quelques images de l'ile de Grenade... Pertinent? NON. Et pourtant on ne fait pas un procès à Google en disant que son annuaire "raconte n'importe quoi".
Il faut s'enfoncer dans la tête que ChatGPT et consoeurs ont en commun de faire du conversationnel, et certainement pas de la restitution de résultats par liens. Cela sous-entend donc une mise en forme du résultat pour le rendre lisible, et par conséquent en détruire le contenu si aucune réponse réellement pertinente n'apparaît.
Il y a pire: on a la mémoire courte! Pourquoi les acteurs du numérique oublient si facilement le Google bombing:
https://fr.wikipedia.org/wiki/Bombardement_Google
C'était clairement une saturation de l'algorithme pour que des comportements incohérents émergent dans les réponses.
Et il va en aller de même (et c'est déjà le cas...) avec les IA: en saturant Twitter de messages haineux, les premiers essais d'IA de Microsoft ont donné des réponses... problématiques.
Alors doucement les paranoïaques: comme tout outil, c'est ce qu'on en fait qui est dangereux, pas l'outil lui-même.
D'un point de vue législatif, on doit légiférer en instaurant des règles élémentaires comme:
- Pas de gestion RH par une IA
- Obligation de montrer explicitement qu'une IA est derrière les réponses (notamment sur les assistances en ligne, les systèmes de SAV vocaux qu'on pourrait associer à des chatbots)
- Restituer les sources dans une liste de liens connexes à la réponse. Tout ouvrage (hors fictions) correctement fait contient les références iconographiques et/ou une liste de références littéraires afin d'étayer les thèses défendues. Alors, imposer les dites références sera qu'un bienfait, ainsi qu'une incitation à mener le trafic à destination, au lieu de se contenter que de la réponse technique.
Ceux qui craignent l'IA sont ceux qui, paradoxalement, ont donné toute latitude à leurs entreprises pour le flicage de la donnée. Je ris avec cynisme quand Musk ramène sa science sur les IA, alors qu'il n'a aucun scrupule à faire n'importe quoi concernant Twitter. Je souris avec tendresse quand steve wozniak parle de cerveau électronique incontrôlable... surtout quand je vois le comportement d'Apple avec ses utilisateurs.