L'arme absolue des dictatures (partie 1)
L'IA sera, selon moi, la plus efficace et la plus meurtrière des dictatures. Là, les passionnés de SF songent immédiatement au terminator (encore lui)... Ce n'est absolument pas ce qu'il faut craindre. Les robots arpentant les rues sont encore loin de nous, non parce que cela ne peut pas être fait, mais parce que les citoyens, même en dictature, ne sont pas prêts à côtoyer des machines autonomes de manière aussi frontale.
La fusion de la robotique et de l'IA sont sur trois axes:
- Les services
- La sécurité
- La compagnie
Les services
On peut imaginer des IA intégrées à des robots pour faire les courses, le ménage, servir au restaurant... bref des tâches itératives et considérées comme avilissantes. Cependant, qui est prêt à tolérer des machines qui ne présentent visuellement aucune émotion/intention décryptable? Difficile de quantifier le degré d'acceptation, notamment face au risque non nul qu'une machine devienne violente et hors de contrôle. (surtout suite à un piratage ou une programmation malveillante)
La sécurité
Comment confier des décisions liées à la vie et surtout à la mort de personnes? Les drones sont des robots, pas des machines autonomes. Comment fiabiliser les décisions autonomes d'une machine conçue pour tuer? C'est d'autant plus un problème prégnant qu'il amène une difficulté juridique: en cas d'incident, qui juger pour l'erreur? Les développeurs? Ceux qui ont testé? La machine? L'état? Même les pays les plus totalitaires hésitent encore à user de telles machines.. non pour des questions d'image, mais pour d'évidents problèmes de fiabilité en conditions réelles.
La compagnie
La SF présente des robots de compagnie, des IA faites pour flatter l'ego ou soulager la solitude. On se confronte alors à des logiciels dédiés à avoir des réponses simulant des émotions, là où on ne peut finalement que lire des comportements déjà construits en amont pour éviter toute forme de frustration. A titre d'exemple, un robot dévolu aux plaisirs sexuels ne peut pas être "humanisé" pour maintenir une disponibilité permanente, là où tout humain peut refuser pour toutes les bonnes raisons qu'on peut imagine. Pire encore: un robot posera forcément problème de par son aspect physique. Si l'on imite un corps humain (surtout le visage) on se heurte immédiatement à "la vallée de l"étrange" rendant ces robots terrifiants et malsains.
Associer ces robots à des IA toujours plus efficaces ne résout pas le problème de base: accepter qu'une machine soit autonome, qu'elle puisse agir hors de tout contrôle d'un humain, et dont les réponses ne dépendent dès lors plus que de programmes faillibles et d'analyses contextuelles forcément limitées.
L'IA sera, selon moi, la plus efficace et la plus meurtrière des dictatures. Là, les passionnés de SF songent immédiatement au terminator (encore lui)... Ce n'est absolument pas ce qu'il faut craindre. Les robots arpentant les rues sont encore loin de nous, non parce que cela ne peut pas être fait, mais parce que les citoyens, même en dictature, ne sont pas prêts à côtoyer des machines autonomes de manière aussi frontale.
La fusion de la robotique et de l'IA sont sur trois axes:
- Les services
- La sécurité
- La compagnie
Les services
On peut imaginer des IA intégrées à des robots pour faire les courses, le ménage, servir au restaurant... bref des tâches itératives et considérées comme avilissantes. Cependant, qui est prêt à tolérer des machines qui ne présentent visuellement aucune émotion/intention décryptable? Difficile de quantifier le degré d'acceptation, notamment face au risque non nul qu'une machine devienne violente et hors de contrôle. (surtout suite à un piratage ou une programmation malveillante)
La sécurité
Comment confier des décisions liées à la vie et surtout à la mort de personnes? Les drones sont des robots, pas des machines autonomes. Comment fiabiliser les décisions autonomes d'une machine conçue pour tuer? C'est d'autant plus un problème prégnant qu'il amène une difficulté juridique: en cas d'incident, qui juger pour l'erreur? Les développeurs? Ceux qui ont testé? La machine? L'état? Même les pays les plus totalitaires hésitent encore à user de telles machines.. non pour des questions d'image, mais pour d'évidents problèmes de fiabilité en conditions réelles.
La compagnie
La SF présente des robots de compagnie, des IA faites pour flatter l'ego ou soulager la solitude. On se confronte alors à des logiciels dédiés à avoir des réponses simulant des émotions, là où on ne peut finalement que lire des comportements déjà construits en amont pour éviter toute forme de frustration. A titre d'exemple, un robot dévolu aux plaisirs sexuels ne peut pas être "humanisé" pour maintenir une disponibilité permanente, là où tout humain peut refuser pour toutes les bonnes raisons qu'on peut imagine. Pire encore: un robot posera forcément problème de par son aspect physique. Si l'on imite un corps humain (surtout le visage) on se heurte immédiatement à "la vallée de l"étrange" rendant ces robots terrifiants et malsains.
Associer ces robots à des IA toujours plus efficaces ne résout pas le problème de base: accepter qu'une machine soit autonome, qu'elle puisse agir hors de tout contrôle d'un humain, et dont les réponses ne dépendent dès lors plus que de programmes faillibles et d'analyses contextuelles forcément limitées.