Réflexions sur les IA

  • Auteur de la discussion magellan
  • Date de début

dartyduck

Grand Meuble Suprême
il est malgré tout conférencier, donc l'un n'empêche pas l'autre :D
 

magellan

Modérâleur
Staff
il est malgré tout conférencier, donc l'un n'empêche pas l'autre :D
Cela ne m'intéresse pas. C'est le genre de personnage qui mènent les gens à fuir les conférenciers et à tout mettre en doute sans compétence.

De toute manière, quand un type devient un homme-sandwich, je ne peux que prendre mes distances et ne pas l'écouter outre mesure.
 

vince1053

longuement mais je réponds vite & bien (des fois)
Staff
It's was a joke, (c'tait pour meubler) :rolleyes:
 

magellan

Modérâleur
Staff
Pour rebondir sur cet appel, je pense que les acteurs qui repoussent l'idée de l'usage intensif de l'IA perdent de vue l'essentiel à savoir que ce n'est pas l'outil qui est dangereux, c'est son usage.

Tous font la même erreur de craindre la singularité, ainsi que de fuir les mutations inévitables de la société. Il en est allé de même avec la mécanisation, avec l'industrialisation, et même l'internet. On se souviendra des crises chez les petits commerçants voyant avec horreur l'arrivée du net comme concurrent crédible...

Dans l'absolu, l'IA est dangereuse au seul titre qu'on peut lui confier des tâches complexes, et parmi elles qui ont un lien immédiat avec les aspects sociaux. Je tiens tout de même à rappeler que dire "On ne sait pas ce que va répondre le programme" est une vaste ineptie. Comme tout logiciel, ce que répond une IA est tributaire de trois critères: ce qu'on lui donne à digérer, les brides logicielles mises dans les réponses à obtenir, ainsi que la manière dont l'IA doit répondre. L'apprentissage? C'est un mot surfait! Les IA "apprennent"? NON: elles essayent, elles éliminent les branches "inutiles" par pondération statistique. En gros: plus la réponse semble pertinente, plus les autres réponses seront repoussées.

Pourquoi Bing répond n'importe quoi, voire même invente et martèle des âneries? Parce que le mode de réponse est "réponds même si ta réponse n'est pas suffisamment confirmée". C'est d'ailleurs LA tare de la plupart des outils informatiques: donner une réponse quoi qu'il en coûte. A ce titre, Google répond aussi des inepties, des approximations... Vous en doutez? La plupart des réponses supposées ne pas aboutir donnent toujours un résultat dont la pertinence est proche du néant. Petit exemple
"image de canard lançant des grenades' . Oui, la recherche semble absurde, mais cela pourrait être issu d'une BD par exemple. Google répond quoi? Quelques images de canards, quelques images de grenades (le fruit ou l'arme) et quelques images de l'ile de Grenade... Pertinent? NON. Et pourtant on ne fait pas un procès à Google en disant que son annuaire "raconte n'importe quoi".

Il faut s'enfoncer dans la tête que ChatGPT et consoeurs ont en commun de faire du conversationnel, et certainement pas de la restitution de résultats par liens. Cela sous-entend donc une mise en forme du résultat pour le rendre lisible, et par conséquent en détruire le contenu si aucune réponse réellement pertinente n'apparaît.

Il y a pire: on a la mémoire courte! Pourquoi les acteurs du numérique oublient si facilement le Google bombing:

C'était clairement une saturation de l'algorithme pour que des comportements incohérents émergent dans les réponses.
Et il va en aller de même (et c'est déjà le cas...) avec les IA: en saturant Twitter de messages haineux, les premiers essais d'IA de Microsoft ont donné des réponses... problématiques.

Alors doucement les paranoïaques: comme tout outil, c'est ce qu'on en fait qui est dangereux, pas l'outil lui-même.

D'un point de vue législatif, on doit légiférer en instaurant des règles élémentaires comme:
- Pas de gestion RH par une IA
- Obligation de montrer explicitement qu'une IA est derrière les réponses (notamment sur les assistances en ligne, les systèmes de SAV vocaux qu'on pourrait associer à des chatbots)
- Restituer les sources dans une liste de liens connexes à la réponse. Tout ouvrage (hors fictions) correctement fait contient les références iconographiques et/ou une liste de références littéraires afin d'étayer les thèses défendues. Alors, imposer les dites références sera qu'un bienfait, ainsi qu'une incitation à mener le trafic à destination, au lieu de se contenter que de la réponse technique.

Ceux qui craignent l'IA sont ceux qui, paradoxalement, ont donné toute latitude à leurs entreprises pour le flicage de la donnée. Je ris avec cynisme quand Musk ramène sa science sur les IA, alors qu'il n'a aucun scrupule à faire n'importe quoi concernant Twitter. Je souris avec tendresse quand steve wozniak parle de cerveau électronique incontrôlable... surtout quand je vois le comportement d'Apple avec ses utilisateurs.
 

dedzix

Grand Maître
Que ça soit l'outil ou son utilisation, peu importe, l'un et l'autre sont étroitement liés. Si on peut utiliser l'outil de manière dangereuse alors ça en fait un outil potentiellement dangereux.

C'est bien pour cela que pour ce genre d'outil il faut un permis (en France) :
- arme à feu
- chasse
- voiture
- moto

L'IA est à l'image des datas qu'elle singe donc à l'image de l'internet actuel => trollesque, pornographiste, toxique

C'est pas pour rien que "AI Dungeon" (jeux de rôle "papier" sur internet dont le MJ est géré par IA) qui à force de faire du deep learning sur les utilisateurs, tourne la plupart des scénarios en film de LUC xD
 

magellan

Modérâleur
Staff
Que ça soit l'outil ou son utilisation, peu importe, l'un et l'autre sont étroitement liés. Si on peut utiliser l'outil de manière dangereuse alors ça en fait un outil potentiellement dangereux.

C'est bien pour cela que pour ce genre d'outil il faut un permis (en France) :
- arme à feu
- chasse
- voiture
- moto

L'IA est à l'image des datas qu'elle singe donc à l'image de l'internet actuel => trollesque, pornographiste, toxique

C'est pas pour rien que "AI Dungeon" (jeux de rôle "papier" sur internet dont le MJ est géré par IA) qui à force de faire du deep learning sur les utilisateurs, tourne la plupart des scénarios en film de LUC xD
Et encore, encadrer ne garantit rien. C'est en cela que le coup du "faut freiner" me fait doucement rire: on n'a pas freiné le progrès sous prétexte de la peur engendrée par celui-ci.
 

magellan

Modérâleur
Staff
Projections sur le devenir de l'IA

Là, j'aborde quelques réflexions sur les mutations politiques, industrielles, économiques ou sociales qui me semblent plus que probables. Il ne s'agit donc pas d'affirmations mais d'hypothèses qui me semblent probables.

Les thèmes sont les suivants
- Impact sur les stratégies de sécurité intérieure
- Modifications des stratégies de défense
- Automatisation de l'armement
- Projections sur l'usage de l'IA dans la politique internationale
- Intervention de l'IA en médecine
- Création d'industries ultra intégrées
- Modification des fondamentaux de la conception industrielle
- Augmentation drastique de l'intégration des IA dans le numérique "concret"
- Optimisation à outrance des processus incluant de l'humain et les conséquences sociales induites
 

magellan

Modérâleur
Staff
Impact sur les stratégies de sécurité intérieure
La Chine vit déjà les prémices de cet impact à travers ses réseaux de surveillance et sa politique d'encadrement paranoïaque des citoyens. On peut procéder à une dichotomie stricte: les éléments identifiés et traités par l'humain, et ces mêmes éléments traités par des processus totalement automatisés.

Jusqu'à présent, nous avons confié la vidéosurveillance à des personnes. Cela ajoutait une forme de partialité et d'erreurs potentielles, tout en maintenant aussi une certaine assurance de ne pas avoir des faux-positifs traités à outrance. En apprenant à des IA à trouver des comportements présumés déviants, on ne peut que craindre que "Big Brother" devienne une réalité complémentaire à celle déjà terrifiante instaurée par le régime de Pékin.

Posons une réflexion élémentaire: 1984 prophétisait (en étant une critique politique) l'omnipotence d'une machine capable de tout voir et tout analyser. Dans les faits, nous avons déjà cette étape à des niveaux jamais atteints. Pire, ce qui était entrevu se révèle en dessous de la réalité. Là, en ajoutant une IA, on ne peut que craindre une mécanisation à outrance des sanctions, et ce qu'elles soient des amendes ou l'envoi de force de l'ordre. Orwell décrivait l'oppression... là on dépasse cette logique oppressive en la rendant systémique. Quoi de pire qu'un système qui se déconnecte totalement de la fonction humaine? Au surplus, les erreurs de traitement, et pire l'absence de souplesse ne peut qu'amener une crise voire une révolte des gens observés.

Je ne perçois pas une révolution. J'entrevois bien plus du vandalisme et du sabotage, de la rébellion ponctuelle de gens inclus dans le mécanisme (refus de la police d'utiliser l'outil par exemple). En revanche, je vois que trop bien une foule acceptant factuellement cette soumission à l'oeil numérique, ceci sous le prétexte que le fascisme vaut mieux que l'anarchie. C'est à mon sens le discours qui pousse la majorité des chinois de plier face à la contrainte de cette surveillance. Si l'on y ajoute une éducation orientée vers l'acceptation du système, les formes de révolte seront donc réduites à des personnes osant outrepasser les limites acceptées par la population... et donc de s'en isoler.

On est déjà un paria si l'on refuse les réseaux sociaux. On est déjà regardé avec inquiétude quand on ne veut pas adhérer aux codes sociaux en vigueur. Qu'en sera-t-il quand ces codes admettront que l'IA doit tout contrôler et sécuriser?
 

magellan

Modérâleur
Staff
Modifications des stratégies de défense
A ce jour, on confie les stratégies militaires et les décisions à deux groups distincts: les politiques décidant d'agir, et les militaires qui appliquent ces consignes sous la forme d'ordres concrets.

Il faut bien comprendre un préalable qui est que l'information est la chose fondamentale de la guerre. On a besoin de données pour pouvoir réagir. Les conflits "modernes" requièrent les satellites, les communications numériques, les caméras, les radars... Et nous disposons déjà de ces moyens de renseignement. Cela sous-entend donc qu'en ajoutant l'IA comme couche supplémentaire, on obtiendra des données mises en forme avec une analyse plus poussée, rapide et statistique que celle faite par des comités d'experts.

Le premier effet immédiat serait d'améliorer, en théorie, le déploiement et l'usage des forces armées. Mieux encore, cela supposerait également une meilleure gestion logistique et l'usage d'équipements souvent hors de prix. Cependant, cette idée est à mon sens une erreur grave à ne pas faire. L'IA a pour tendance d'être mécanique, à savoir donc d'agir selon des raisonnements pratiques et circonstanciés. Or, l'homme a pour habitude d'improviser et même de créer des stratégies imprévues. Cette doctrine de l'analyse a donc des limites qui sont celles des engagements militaires classiques. Face à de la guérilla, ou d'armées comprenant que la donnée est la source de ses malheurs, l'IA pourrait partir dans de mauvaises réflexions.

La guérilla est une chose menée selon le terrain, avec un usage intensif des avantages de celui-ci. C'est aussi une stratégie d'usure s'adossant à l'opportunisme. L'IA peut aussi comprendre cela, mais sera nécessairement limité face au manque chronique de données. C'est par analogie le même problème qu'avec le terrorisme: une personne seule peut agir, s'outiller et tuer sans que son activité personnelle ne révèle quoi que ce soit pouvant révéler un projet criminel.

A partir de ces assertions, il y a aussi une chose qui risque fort de se produire. Afin de troubler l'IA d'étude, mais aussi pour se sécuriser, je pense que les conflits futurs vont revoir complètement les protocoles de communication. Que ce soit l'usage de l'usage de la cryptographie, ou d'un retour arrière sévère pour revenir au papier pour éviter les fuites numériques, je pense que les stratégies technologiques vont atteindre une certaine limite.

Pour finir, les conflits actuels sont asymétriques. On est quasi systématiquement dans un cas où une nation "riche" se bat contre des groupes dispersés, structurés plus sous la forme de cellules que sous une forme d'armée conventionnelle. Dans un tel type d'engagement, l'IA sera plus utile à organiser le ravitaillement et à observer les progrès sur le terrain, qu'à donner des axes d'action efficaces. C'est là que le renseignement humain va être encore plus indispensable qu'il ne l'est déjà. Interrogatoires, mises en base de données de fiches personnelles, construction de "réseaux sociaux" pour identifier les groupes... L'IA sera donc un analyste parmi d'autres faute d'être sur le terrain.
 

magellan

Modérâleur
Staff
Automatisation de l'armement
Qu'on se le dise, nombre d'armes et fonctionnements armés sont condamnés à disparaître. Les drones, qu'ils soient volants ou non sont l'avenir de l'armement. Les chasseurs que nous voyons aujourd'hui en service sont je pense la dernière génération d'appareils pilotés par des hommes. Les prochaines armes seront pilotées à distance, voire même automatisées.

Les drones volants sont actuellement les armes de première frappe. On cible et on intervient, et les chasseurs sont à présent de moins en moins pertinents. Si l'on applique cette même réflexion avec les blindés, m'est avis qu'à terme nous aurons des véhicules vides qui s'affronteront directement, là où l'on comptait sur des équipages chers. Ce qui coûte aujourd'hui, c'est la compétence plus que le véhicule. On pourrait arguer qu'un chasseur ou un char sont des choses qui coûtent une fortune délirante, mais en temps de guerre, ce qui est le plus long et pénible c'est de former un pilote ou un artilleur.

De là, trois choses sont possibles: du pilotage à distance, de l'automatisation pour de la patrouille mais asservie à des décisions humaines, et enfin de l'action totalement autonome. A mon sens, la première nation qui acceptera de laisser l'IA agir de manière totalement autonome se heurtera à de terribles désillusions. Entre le risque de piratage et les erreurs graves de décision numérique, ces machines à tuer automatiques vont forcément provoquer de graves échecs aux proportions possiblement dantesques. On ne se figure que difficilement ce que j'explique, mais figurez la chose comme suit: alignez des dizaines de blindés qui agissent de manière autonome. Imaginez les fonctionner en bataillon sans décision extérieure. Maintenant, faites vous l'image mentale où l'IA régissant ces machines confondent le camp de base avec une cible ennemie. Comment les arrêter? On pense tous à un "kill switch" pour interrompre tout fonctionnement... Mais ce serait idiot de l'intégrer. Pourquoi? "Si vous pouvez l'éteindre, l'ennemi trouvera comment en faire autant". Donc, faute de sécurité parce que ce n'est pas une sécurité viable, on sera soumis aux erreurs d'analyse et pire encore à des règles d'engagement mal configurées.

Et enfin, si l'on confie l'arsenal nucléaire à des IA, vont-elles demander notre avis pour en faire usage? Si ces IA nous demandent notre aval... alors pourquoi y ajouter une IA là où on a déjà tous les outils d'action et de décision?
 

magellan

Modérâleur
Staff
Projections sur l'usage de l'IA dans la politique internationale
Je crains avant tout que des politiques se prennent de passion pour les IA en les traitant comme des déités susceptibles de répondre à toutes les interrogations. En nourrissant les IA avec les données factuelles (ou pas!) du monde numérique, on pourrait débrider un IA en lui demandant de tirer des réflexions et même des orientations politiques/diplomatiques. A mon sens, cela se produira forcément, mais ceci aux prix très élevé de crises générées par des fonctions trop radicales et déconnectées de tout pragmatisme. La diplomatie, c'est tenir compte du fait qu'on se ment en sachant que l'autre ment, ceci pour préserver tant que faire se peut un statut-quo. Alors, évidemment, obtenir des suggestions et des propositions peut aider. Un outil d'aide à la décision déconnecté de toute teinte politique n'est pas inutile, mais peut vite devenir un danger concret et quantifiable.

On a tous vécu le cas où on prend la première réponse de Google car elle semblait répondre pleinement à notre question.... puis de constater qu'on a omis un ou plusieurs éléments de la réflexion à mener. Maintenant, si l'on applique la même problématique à des décisions d'ordre politique, on ne peut que partir droit dans le mur.

Le pire des problèmes avec l'IA sera le biais de validation. A chaque fois que la réponse semblera être conforme à la situation, cela ira conforter l'utilisateur dans sa confiance, et ce au point de finir par ne tenir compte que de ces réponses. Cela amènera forcément à user d'une suggestion fausse en la tenant pour bonne, et donc de provoquer une crise majeure. Les actions politiques ont pour problème de découler d'une situation existante, et d'en créer de nouvelles bien souvent inattendues. Pour se faire une idée, bien des décisions prises pour aider en économie l'ont été parce qu'on les pensaient bonnes. Ce n'est qu'une fois en action qu'on a pu voir les effets pervers, voire même l'accentuation de la crise.

Je me fais cette réflexion en songeant par exemple à la politique de casser les liens avec la Chine côté électronique. Au départ, on a dit "ce n'est pas forcément idiot, cela peut rendre une certaine indépendance aux USA". Mais en effets pervers, on a pu constater que les carcans se sont un peu défaits pour certaines sociétés. Pourquoi? Parce que les intrications sont si profondes qu'il devient inenvisageable de les dénouer sans conséquence. Maintenant, si l'on pousse plus loin, cela ne peut que provoquer de nouvelles crises issues d'erreurs de jugement lourdes de conséquences.
 

SergioVE

Tout à faire car rien n'est fait.
Projections sur l'usage de l'IA dans la politique internationale
Le pire des problèmes avec l'IA sera le biais de validation. A chaque fois que la réponse semblera être conforme à la situation, cela ira conforter l'utilisateur dans sa confiance, et ce au point de finir par ne tenir compte que de ces réponses. Cela amènera forcément à user d'une suggestion fausse en la tenant pour bonne, et donc de provoquer une crise majeure.
Certes un point de détail, mais bien des exemples prouvent qu'il n'y a pas besoin d'IA pour avoir une crise majeure...
 

magellan

Modérâleur
Staff
Intervention de l'IA en médecine
A mon sens, l'IA pourrait ajouter des outils d'étude et de diagnostics potentiellement ultra efficace, à la condition expresse que les praticiens continuent à savoir en tirer des conclusions. Selon moi, on va avoir deux axes fondamentaux:
- L'analyse de pathologie
- L'étude scientifique

Dans le premier domaine, l'idée est simple: fournir à l'IA de quoi alimenter le diagnostic (prises de sang, imagerie médicale...) et permettre ainsi une analyse rapide et complexe de données qui, généralement, requièrent du temps et des hypothèses parfois incomplètes.
On a déjà des exemples d'IA ayant analysé des panels d'images médicales (IRM notamment) afin de voir si celle-ci pourrait en extraire les cancers potentiels. Le résultat n'est pas parfait, mais j'envisage aisément que ces moteurs d'étude s'améliorent pour traiter au plus tôt les patients.
On peut également y adjoindre un système de suggestion au praticien concernant les traitements éventuels. Nombre de médecins sont forcément confrontés à des pathologies inconnues (ce qui est normal). y ajouter un outil d'aide à la prise de décision ne serait pas forcément inutile.

De là je dois lever l'inquiétude évidente où cela pourrait aussi dévoyer la qualité d'analyse du médecin par l'excès de confiance dans l'outil, et surtout une forme de défiance des patients voyant celui-ci non plus comme un personnel compétent, mais comme un interrogateur d'un outil numérique. Cela va nécessiter de la communication pour que cela soit admis.


Le second domaine de l'étude, cela ne peut que paraître plus évident. En ayant une IA capable de traiter des bases de génomes mises en relation avec des pathologies, on pourrait tout à fait raisonner sur une possibilité d'en tirer des conclusions difficiles à obtenir par un humain faute de pouvoir traiter une telle masse de données. Les thérapies géniques pourraient bénéficier de ces environnements afin de proposer la combinaison la plus susceptible de fonctionner.
On peut également songer aux avantages de confier à une IA une étude rigoureuse du génome de nombre de virus, ceci afin d'en identifier les faiblesses et les traitements envisageables. J'imagine aisément la possibilité d'user l'IA pour étudier les mutations du SIDA et d'y trouver une "clé" ou du moins un axe d'étude pour aider à créer si ce n'est un vaccin mais une thérapie plus efficiente que celles actuellement en application.
 

magellan

Modérâleur
Staff
Création d'industries ultra intégrées
Là, c'est un des dangers les plus évidents de l'IA. Il faut comprendre par danger le massacre du salariat à travers une automatisation à outrance, et une quête de la performance.

Les cycles de production sont théoriquement toujours imparfaits: temps de réaction, délai de transfert des pièces pendant la fabrication, gestion des défauts... Et concrètement une bonne part de ces imperfections proviennent évidemment de l'homme: erreurs de manipulation, fautes d'inattention, réglages des machines incorrects, il y a de quoi faire.

Malheureusement, inclure l'IA dans la GPAO (Gestion de Production Assistée par Ordinateur) dépassera évidemment le seul suivi pour atteindre l'oppression des salariés. C'est ainsi: en instaurant une machine qui pense qu'on peut toujours affiner, le résultat sera que les employés seront forcément soumis au joug des chiffres. C'est plus ou moins le cas, mais avec la souplesse inhérente à la gestion de ressources humaines. Là, via une IA, on ne pourra que voir des postes revus et corrigés, des gens mis de côté sous prétexte d'être insuffisamment productifs.

Dans ces conditions, j'invite fortement les syndicats à être proactifs et inciter le législateur à encadrer lourdement cet avenir. Faute de règles claires, nous aurons le droit à des atrocités comme Amazon qui a licencié des salariés suite à des analyses de productivité mettant en lumière de soi-disant "improductifs".

On peut même songer à des usines quasi autonomes où seuls des techniciens seraient présents pour ajuster les machines, et donc à réduire à néant l'intervention humaine dans le cycle.

Pour l'heure, ce qui sauve encore la main d'oeuvre, c'est que nombre de postes ne peuvent être automatisés à 100% car l'emploi d'un salarié revient moins cher qu'un robot à configurer, maintenir et faire marcher. J'ai en tête le poste certes ingrat mais utile du gars qui met la roue de secours dans le panier dans les usines Peugeot. Un robot pourrait faire le boulot, mais entre le coût, la configuration et surtout la gestion des pannes, il est avéré que l'homme demeurait plus rentable.
Mais est-ce encore le cas ? Je n'ai pas remis les pieds dans l'usine concernés pour vérifier cela... mais le raisonnement demeure: tant que la machine ne pourra pas être plus rentable, on emploiera des hommes. Toutefois, l'IA pourrait changer lourdement cette réflexion.
 

magellan

Modérâleur
Staff
Modification des fondamentaux de la conception industrielle
On a déjà des exemples de processeurs conçus par une IA. Je pense que nombre d'outils logiciels vont à terme prendre le pas sur la compétence technique. On va dès lors parvenir à une conception tellement assistée qu'on sera presque tenu de faire foi au résultat faute d'être capable d'en analyser la pertinence.

Admettons la conception de circuits électroniques. En confiant une telle étude à une IA, nombre de sociétés pourraient finir par se passer d'ingénieurs pour les remplacer par un configurateur rigoureux. C'est assez prégnant comme possibilité, sachant qu'elle serait en mesure d'instaurer de nouvelles façons de penser l'électronique.

Je pense également que nos produits électroniques sont toujours plus complets et surtout complexes. Dans l'idée, on peut imaginer s'affranchir des phases d'étude préalables pour appliquer des prototypages plus rapides conçus par des IA. Est-ce une bonne chose? Je reste perplexe au titre que cela pourrait aussi rendre de moins en moins compétentes nombre de sociétés. Pourquoi se compliquer la vie à innover si la machine propose une solution viable?

Le secteur de la production a déjà passé le pas du prototypage par impression 3D. Va-t-on également voir émerger du prototypage électronique via des machines hautement intégrées? Cela me semble presque inévitable.

Cette idée peut en revanche être une vraie alternative pour les pays émergents, ainsi que pour les régions peu industrialisées. Quoi de de plus pratique que de faire fabriquer à la demande une électronique sur mesure, rapidement, le tout directement depuis un comptoir? On pourrait au surplus y songer pour inclure à ces méthodes une notion de réparabilité. Songez à un bureau capable de recevoir votre appareil, qu'une IA le diagnostique et que la réparation soit faite dans la foulée. On aurait alors une amélioration vertueuse des cycles de vie pour éviter le gaspillage technologique. mais là, encore une fois, ce sera du ressort du législateur d'imposer qu'un critère de maintenance obligatoire soit au cahier des charges. Avec l'IA, on peut l'imposer parmi les fondamentaux, là où aujourd'hui on en est encore au voeu pieu.
 

magellan

Modérâleur
Staff
Augmentation drastique de l'intégration des IA dans le numérique "concret"
J'entends par là que nous sommes encore à la préhistoire de l'intégration du net et donc des IA dans notre quotidien. Les assistants numériques sont anecdotiques en terme de volumes de vente, et sorti des mobiles nous n'usons finalement que peu de la puissance potentielle de ces logiciels.

Maintenant, si chaque terminal, chaque appareil connecté devient une interface' avec l'IA, on aura toujours plus d'informations instantanées et supposées fiables. On peut déjà penser à des périmètres:
- Transports en commun: amélioration de la fluidité, informations voyageurs fiables et rapides, gestion des retards et incidents, remontées d'incidents à des fins d'amélioration...
- Transports de marchandises: uniformisation et optimisation des flux de fret, administration centralisée afin de simplifier le suivi, gestion des données pour la traçabilité des produits. On peut aussi songer à une fédération du transport permettant à chacun de réduire notablement les déplacements inutiles avec les économies d'échelle que cela peut représenter.
- Commerce: fourniture en temps réel d'informations sur les produits en vente, mise en concurrence tarifaire, présentation et comparaisons des fonctionnalités.

Je pense qu'on peut aller bien plus loin avec des propositions toujours plus fines à l'achat, orientation vers des restaurants selon les goûts des utilisateurs... Les limites sont celles de l'imagination.

Le pendant sera, une fois de plus, l'intrusion toujours plus profonde de l'IA dans nos modes de vie, avec pour conséquence un feedback toujours plus précis sur chaque utilisateur.
 

magellan

Modérâleur
Staff
Optimisation à outrance des processus incluant de l'humain et les conséquences sociales induites
J'ai présenté toutes les problématiques dans le domaine de la production. Maintenant, on peut aller aussi dans les aspect sociaux et administratifs.
- Mise en oeuvre des lignes d'assistance ne répondant plus qu'à travers des IA conversationnelles
- Disparition progressive des conseillers (cf les banques) où les IA joueront le rôle de commerciaux... sans devoir coûter en terme de commissions, tout en ayant aucune limite morale ou presque. On peut frémir à l'idée qu'une IA pousse à prendre des crédits parce que le client ciblé a le profil idéal pour s'endetter.
- Automatisation de la justice et du droit. On ne peut qu'être terrifié à l'idée de voir des jugements être traités par un logiciel. Divorces, plaintes au civil, prudhommes, c'est un domaine suffisamment vaste et assez "évident" pour que les IA puissent être mises en oeuvre. Cela sous-entend bien des problèmes tant éthiques que légaux, sans compter l'absence d'humanité dans les décisions obtenues de la machine.

On va donc créer un monde où l'humain sera un arbitre final, mais globalement soumis à des règles tacites car intégrées à des machines silencieuses, épiant chaque fait, chaque geste, pour au final nous juger de manière systématique et sans possibilité de défense.

Nous étions terrifiés par big brother? Soyons plus terrifiés encore à l'idée d'être dans l'acceptation bête de la machine en guise de juge omniscient et omnipotent.
 
Vous devez vous inscrire ou vous connecter pour répondre ici.
Derniers messages publiés
Statistiques globales
Discussions
730 122
Messages
6 717 542
Membres
1 586 341
Dernier membre
RSoul
Partager cette page
Haut