Réflexions sur les IA

  • Auteur de la discussion magellan
  • Date de début

magellan

Modérâleur
Staff
L'arme absolue des dictatures (partie 1)

L'IA sera, selon moi, la plus efficace et la plus meurtrière des dictatures. Là, les passionnés de SF songent immédiatement au terminator (encore lui)... Ce n'est absolument pas ce qu'il faut craindre. Les robots arpentant les rues sont encore loin de nous, non parce que cela ne peut pas être fait, mais parce que les citoyens, même en dictature, ne sont pas prêts à côtoyer des machines autonomes de manière aussi frontale.

La fusion de la robotique et de l'IA sont sur trois axes:
- Les services
- La sécurité
- La compagnie

Les services
On peut imaginer des IA intégrées à des robots pour faire les courses, le ménage, servir au restaurant... bref des tâches itératives et considérées comme avilissantes. Cependant, qui est prêt à tolérer des machines qui ne présentent visuellement aucune émotion/intention décryptable? Difficile de quantifier le degré d'acceptation, notamment face au risque non nul qu'une machine devienne violente et hors de contrôle. (surtout suite à un piratage ou une programmation malveillante)
La sécurité
Comment confier des décisions liées à la vie et surtout à la mort de personnes? Les drones sont des robots, pas des machines autonomes. Comment fiabiliser les décisions autonomes d'une machine conçue pour tuer? C'est d'autant plus un problème prégnant qu'il amène une difficulté juridique: en cas d'incident, qui juger pour l'erreur? Les développeurs? Ceux qui ont testé? La machine? L'état? Même les pays les plus totalitaires hésitent encore à user de telles machines.. non pour des questions d'image, mais pour d'évidents problèmes de fiabilité en conditions réelles.
La compagnie
La SF présente des robots de compagnie, des IA faites pour flatter l'ego ou soulager la solitude. On se confronte alors à des logiciels dédiés à avoir des réponses simulant des émotions, là où on ne peut finalement que lire des comportements déjà construits en amont pour éviter toute forme de frustration. A titre d'exemple, un robot dévolu aux plaisirs sexuels ne peut pas être "humanisé" pour maintenir une disponibilité permanente, là où tout humain peut refuser pour toutes les bonnes raisons qu'on peut imagine. Pire encore: un robot posera forcément problème de par son aspect physique. Si l'on imite un corps humain (surtout le visage) on se heurte immédiatement à "la vallée de l"étrange" rendant ces robots terrifiants et malsains.

Associer ces robots à des IA toujours plus efficaces ne résout pas le problème de base: accepter qu'une machine soit autonome, qu'elle puisse agir hors de tout contrôle d'un humain, et dont les réponses ne dépendent dès lors plus que de programmes faillibles et d'analyses contextuelles forcément limitées.
 

magellan

Modérâleur
Staff
L'arme absolue des dictatures (partie 2)

La digression préalable n'est pas pour s'égarer, mais pour contextualiser l'association de l'IA aux robots. On imagine bien une dictature user de robots contre des émeutes par exemple. Or, le robot est trop identifiable, et surtout difficile à intégrer au quotidien sans que cela pose des soucis fondamentaux d'acceptation.

Donc, c'est plus l'IA "sociale" qui est à craindre. Toute dictature peut envisager de guider l'état sous tutelle despotique via les IA, ceci non en intervenant physiquement, mais de manière plus "douce".

La Chine applique déjà les fondamentaux:
- Exploitation massive des caméras et de la reconnaissance faciale
- Construction de systèmes centralisés de note sociale accessible et surtout influençant sur les libertés individuelles
- Sanctions sociales et financières automatisées. (note en baisse, amendes...)

Enfilons le costume cendré du dictateur. Quoi faire pour contrôler le peuple, comment le mener à croire et même aduler le gouvernement?
- Orientation de l'information par les réponses fournies par les outils du net
- Déploiement d'informations dévoyées et manipulées de manière suffisamment fine pour qu'elles soient crédibles et même acceptées par le plus grand nombre
- Usage de l'IA pour structurer au mieux les données restituées à chacun, de sorte à saper la conviction individuelle de manière personnalisée pour être plus efficace.
- Extraction des sujets à risque en retrouvant les demandes considérées comme limites ou gênantes pour le pouvoir.
- Remontée de statistiques précises afin de déterminer les zones les moins sensibles à la propagande, afin soit de l'intensifier, soit pour trouver quelles sont les choses mise s en doute par les citoyens.
- Amélioration permanente de la propagande soit en proposant des réponses plus complexes à contester, soit en révisant les axes d'information.

Des IA configurées à escient pour ces besoins spécifiques peuvent, de par la quantité gigantesque de données, identifier les opposants, et bâtir des campagnes de désinformation plus efficaces.

Qu'est-ce qui est plus efficace? Convaincre des millions de personnes de croire à des mensonges, ou bien tabasser des manifestants de manière ostensible?
LES DEUX! Il faut d'un côté convaincre le plus grand nombre de la puissance et des bienfaits de la dictature (stabilité, sécurité...), et une fois celui-ci convaincu, lui exhiber que l'état agit contre les déviants qui cherchent l'anarchie et la violence. Le discours est le plus simple et le plus facile à avaler qui soit: "ils sont violents, s'opposent à vos avantages, on vous montre qu'on vous en protège en les passant à tabac".

Tian an Men reste un évènement traumatisant en Chine, car à l'époque la propagande n'a pas réussi à faire des étudiants des personnes criminelles. En revanche, les manifestations de Hong-Kong on été noyées et étouffées tant par la propagande que par les matraques. Pire: sachant les intérêts économiques mondiaux, aucune nation ne s'est réellement confrontée à la Chine concernant cette crise. Ce n'est pas les quelques "préoccupations" et autres manifestations qui ont pu marquer une vraie réaction du monde.
Résultat des courses... rien. Aucun changement, des incarcérations, sûrement des réorganisations... Le tout épaulé par une propagande numérique intense et bien organisée. Et là l'IA a sûrement été un outil fondamental pour bien cibler et bien dispenser les idées du gouvernement chinois.
 

SergioVE

Tout à faire car rien n'est fait.
Pourquoi se limiter aux dictatures ? Quelle démocratie ne rêverait pas d'"éduquer" en douceur le peuple grâce à une IA bien pensée ?
 

magellan

Modérâleur
Staff
Pourquoi se limiter aux dictatures ? Quelle démocratie ne rêverait pas d'"éduquer" en douceur le peuple grâce à une IA bien pensée ?
Parce que par essence une démocratie s'outillant de la sorte ne peut que glisser vers la dictature.
 

magellan

Modérâleur
Staff
La fracture numérique
L'expression semble désormais surannée car datant d'une ère où l'informatique commençait tout juste à devenir inévitable. On s'est beaucoup moqués des politiques rebondissant sur le raisonnement, cependant l'IA va inévitablement provoquer une énorme fracture entre les sociétés (sociétés humaines) y accédant, et ceux qui ne pourront pas s'offrir les services de tels logiciels.

L'idée de cette fracture est, selon moi, le premier vrai problème concret auxquels tous les citoyens du monde vont se heurter avec brutalité. On pourrait songer à l'usage des particuliers, moi je songe plus à l'impact fondamental de ces technologies sur les outils de production, et même su' la gouvernance des entreprises. Concrètement, toute structure pouvant user de l'IA se servira d'elle pour affiner les cycles de production (supply-chains), mais également pour réorganiser en profondeur les liens entre services internes. Posons un exemple: une usine manufacturant un produit fini. Peu importe le produit, l'usine va forcément souffrir de plusieurs soucis comme les pannes, les lenteurs liées aux échanges entre services, ou encore de retards/anomalies dans l'approvisionnement. En adossant ces échanges à des IA, ces logiciels vont analyser les performances et en tirer les conséquences. Chaque optimisation même minime va avoir un impact conséquent sur la productivité générale. Les concurrents non outillés, eux, ne pourront pas être aussi performants et souffriront forcément.

Est-ce que ces changements seront bons pour les salariés? A mon sens, l'IA proposera des solutions toujours plus déshumanisées en proposant par exemple l'automatisation des transferts documentaires, l'informatisation à outrance des contrôles qualité, mais surtout la systématisation de la pression exercée sur le seul élément qu'on ne peut pas optimiser... l'employé. Amazon a déjà mis en oeuvre ces analyses logicielles menant à des licenciements. A terme, le plus ces usines seront assistées par des IA, le moins elles auront une gestion humanisée des salariés, avec tout ce que cela peut impliquer comme dérives graves.

Pour les particuliers, cette fracture va aussi avoir un impact. Cela sera moins immédiat, mais plus insidieux et tout autant nocif. Déjà, en incluant l'IA parmi les échanges, la détermination de l'interlocuteur va devenir toujours plus complexe. Est-ce un humain ou un bot de discussion qui est en face? Est-ce que les réponses de la "personne" lui sont personnelles ou dictées par un bot? On peut même s'interroger sur la capacité qu'ont ces IA à extraire lors des échanges écrits des profils. On peut imaginer une personne mal intentionnée avoir un dialogue avec un/une inconnu(e); laisser l'IA analyser les réponses, et déterminer les faiblesses ou points d'intérêt. L'idée? Adapter les réponses en conséquence et dès lors manipuler l'attitude de l'interlocuteur.

Nous constatons déjà l'impact des fausses nouvelles et des manipulations médiatiques. J'entends par là au moins qu'autant (si ce n'est plus) côté réseaux sociaux que du côté des canaux classiques (journaux, télé...) les IA vont amener des manipulations toujours plus fines des propagandes, et qu'à mon sens cela mènera inévitablement à une défiance toujours plus sévère face aux données mises à disposition des citoyens. Comme je l'ai dit précédemment, le danger immédiat est de déifier un logiciel omniscient. Mais ne va-t-on pas aussi devenir paranoïaques en considérant chaque affirmation comme étant intoxiquée par un logiciel dédié à la manipulation?
 

magellan

Modérâleur
Staff
Progrès ou régression
C'est une vraie question de fond: l'IA ne peut être qu'un progrès technologique désormais incontournable. En revanche, ne va-t-elle pas induire forcément une régression des droits fondamentaux?

Je n'ai pas la prétention de savoir. Cependant, mon opinion fondamentale est que l'IA va rapidement provoquer la pire crise de confiance de l'humanité dans sa propre capacité à communiquer. Cela semble absurde de prime abord, mais j'ai la conviction que toutes les nations qui vont considérer l'IA comme une arme politique vont en faire usage contre leurs opposants. Quand je dis opposants, j'entends par là les échanges entre nations. On a vu les scandales liés à la Russie et ses agissements sur la toile. Je me dis que les pro-Trump pourraient, par exemple, utiliser lourdement les IA pour pousser tous les "nous sachons" en attente de "vérités" à être toujours plus virulents et vindicatifs. Pire encore, j'ai la crainte lourde que nombre de conflits aussi bien économiques que militaires vont s'appuyer sur des mensonges ou des manipulations. Quand l'information devient douteuse parce qu'un logiciel bien conçu peut la déformer, elle se fait non plus lumière dans la nuit, mais poison discret dans les veines.

Et une fois intoxiqués, impossible de revenir en arrière. Nous l'avons vu avec FB: à chaque nouveau scandale, il y a une crise de défiance, et une fuite vers d'autres réseaux. Maintenant, envisageons cela à l'échelle même du net. Pour l'heure, chatGPT reste "fiable" parce qu'on joue avec. Quid du moment où tous les outils qui répondent à notre curiosité seront que des IA et plus des annuaires. Toutes ces IA, je dis bien toutes vont tôt ou tard subir une crise de confiance soit suite à une erreur (cf les IA "nazies"), soit suite à des problématiques autrement plus graves car liées à une volonté manifeste de manipulation.

Dans ces conditions, la prochaine crise de la toile sera forcément liée à l'usage intensif des IA, l'impact sur les gens, et au bout du compte sur la pertinence (ou non) de mettre en place des régulations... voire de le bannir de certains services pour leur garantir un minimum d'indépendance.

J'avais énoncé dès le départ qu'un annuaire et une IA sont deux choses radicalement différentes. Si cette dichotomie finit par disparaître, cela ne pourra qu'encadrer le discours... et donc créer une autocensure. Je me suis fait un jour la réflexion suivante: "quand on a une conviction, on ne s'en détourne qu'une fois qu'on a pris une énorme claque dans la tronche". J'en suis ensuite arrivé à une seconde réflexion liée à la première "Et si ces convictions me sont dictées par des informations bâties sur ce qui m'attire afin de m'orienter, suis-je encore maître de mes opinions?"
 

vince1053

longuement mais je réponds vite & bien (des fois)
Staff
Pinaise, tu soutien une thèse, ça pourrait faire de toi un Doctorant es IA ????
 

SergioVE

Tout à faire car rien n'est fait.
Pour ceux qui trouvent que les interventions de @magellan sont trop complètes, il suffit de demander son opinion à Bing (ce qui tendrait à prouver que @magellan a tout pensé et écrit lui-même) :
Vous devez être connecté pour voir les pièces jointes.
 

magellan

Modérâleur
Staff
Je crois qu'il prépare un livre :)
Pas vraiment... je l'ai déjà fait (sous la forme d'un roman) et force est -hélas pour moi- de constater que nombre de points que j'ai pu y aborder se rapprochent que trop bien de ce qu'il se passe actuellement.

Pour être tout à fait précis, je suis terrifié à l'idée qu'on puisse se prosterner face à une machine, tout comme on a pu le faire face à des scientifiques ou des "génies". Le scientisme (comprendre faire de la science une foi) est une chose hautement toxique car elle enlève toute composante humaine. Je ne connais pas de terme qui serait équivalent concernant l'informatique et surtout les IA. Le pas semble grossier, improbable, mais tous nous pouvons constater au quotidien à quel point nous sommes soumis et dociles face à la machine.

j'entends déjà les "moi j'rentre pas dans les cases" me gueuler que je suis pessimiste, que je vois les choses de manière trop obscures, mais je vais leur rétorquer quelques questions fondamentales

Ces questions semblent provocatrices... mais je vais jouer le jeu et y répondre pour moi-même.
- Quand vous posez une question à google, mettez-vous en doute les réponses, ou acceptez-vous ces réponses comme conformes?
Comme tout le monde je fais une recherche... et je me contente des premières réponses. Pire, si je trouve "la" réponse qui me semble suffire, je ne vais pas creuser plus loin. Il est rare que je sois amené à faire une enquête plus poussée pour trouver quoi que ce soit qui enrichisse la réponse initiale.
- Quand vous lisez Wikipedia, prenez-vous le temps d'aller piocher ailleurs pour comparer et consolider ces réponses?
Très rarement. Globalement, je prends ce dont j'ai besoin ,et ce n'est que si j'ai envie d'approfondir que je pousse la recherche au-delà de ce premier site de référence. A ce titre, s'il me faut des précisions (en science notamment), je sais que je vais inévitablement tomber sur des publications complexes voire inabordables pour mes compétences. C'est à ce niveau que je heurte le "plafond de verre" de mes connaissances.
- N'avez-vous jamais été séduit, à votre corps défendant, par des thèses douteuses émises sur la toile? N'avez-vous jamais émis des doutes sur les affirmations des médias au sens traditionnel?
Pour reprendre Gilles Servat "La bête est là, tapie, sournoise, prête à tout dévorer. L’hydre du fascisme est en chacun de nous. Chaque soir je la décapite. Chaque nuit ses tètes repoussent dons ma tète. Parfois, elle me soumet. Parfois, je suis vainqueur". Il en va de même avec la propagande et la désinformation qu'on peut croiser sur la toile... Et cela ne peut que mener à des incompréhensions, voire des opinions toxiques.
- N'êtes-vous pas vous-mêmes le chantre de certaines de "vos" vérités sur la toile?
Nous le sommes tous. Nous annonçons nos idées, les défendons avec plus ou moins de virulence. Et le biais de confirmation entre alors en jeu "si d'autres pensent comme moi, c'est que forcément je suis dans le vrai".

L'IA joue sur ces raccourcis intellectuels. Ceux qui en usent déjà savent à quel point on peut mener les gens à suivre telle ou telle idée. Pourquoi FB, Google et consoeurs sont si riches? Parce qu'ils analysent, décortiquent et orientent nos propos pour en extraire la meilleure manière de nous vendre des produits... ou des opinions. C'est un savoir-faire qui, dès maintenant, se négocie autrement plus cher que n'importe quelle autre technologie. C'est un nouveau pouvoir dont les états sont tenus de prendre en considération, voire même de mettre sous tutelle. Les différents scandales FB ne sont là que pour agiter le chiffon rouge et laisser, un temps encore, une image où les états défendent nos libertés. En vérité, l'arrière-cuisine étatique est déjà au fourneau avec ces entreprises pour trouver des compromis "acceptables".

Mais songez donc au pouvoir de celui ou celle qui usera de l'IA comme suit
- propagande insidieuse distillée à travers les outils de recherche (Bing par exemple)
- Usage massif de deep-fakes, d'informations contrefaites pour accréditer ladite propagande
- Affinage permanent des méthodes de propagande afin de la rendre toujours plus précise et ciblée.

La prochaine décennie va être, selon moi, l'avènement du politique virtuel. J'entends par là que les prochains élus useront et abuseront massivement de ces outils pour discréditer leurs opposants, pour propager des idéologies... et m'est avis que les partisans les plus extrémistes (fascismes divers et variés) n'auront aucun scrupule à le faire.
 

magellan

Modérâleur
Staff
Pinaise, tu soutien une thèse, ça pourrait faire de toi un Doctorant es IA ????
J'applique un raisonnement pragmatique: sois curieux et comprends ce qui t'entoure. De là, j'use de la chance dont je dispose, à savoir que j'aime rédiger et expliciter mon propos.

Doctorant? Ce serait prétentieux!
 
Vous devez vous inscrire ou vous connecter pour répondre ici.
Derniers messages publiés
Statistiques globales
Discussions
730 098
Messages
6 717 056
Membres
1 586 284
Dernier membre
fjfkfjfkfjfjcj
Partager cette page
Haut