Réflexions sur les IA

  • Auteur de la discussion magellan
  • Date de début

magellan

Modérâleur
Staff
Ceci va être un fil de discussion sur certaines de mes idées/vues concernant les IA en l'état de l'art.

N'hésitez pas à participer!
 

magellan

Modérâleur
Staff
Tout d'abord, je tiens à faire une mise au point indispensable: nos "IA" telles qu'elles sont aujourd'hui ne sont pas autonomes, et encore moins "intelligentes".

J'entends déjà la foule râler comme quoi j'exagère, qu'elles frôlent presque un état de conscience... mais non, retouchons terre: les IA actuelles singent des comportements, elles n'en développent pas des versions autonomes et dépourvues de toutes causes liées aux conditions initiales de configuration.

Ce point est absolument vital pour bien cerner l'impact, la puissance réelle de ces monstres d'analyse, et qui plus est en tirer des enseignements sur les inévitables mutations sociétales et d'usage qu'elles vont engendrer.
 

magellan

Modérâleur
Staff
"C'est quoi ces IA si géniales?"
Allons droit au but: la plupart ont un fonctionnement qui devient vite impossible à analyser de manière macro, mais qui se comprennent aisément de manière micro.

Je m'explique, et ce sans entrer dans des considérations techniques imbuvables: figurez-vous le monde qui vous entoure. En expliquer le fonctionnement au sens général parait impossible, alors que vous pouvez, sur un détail précis, expliciter le fonctionnement d'un mécanisme. Petit exercice mental: dire le pourquoi de toute chose est impossible, expliquer comment fonctionne un vélo est tout à fait envisageable.

Les IA actuelles fonctionnent un peu sur ce raisonnement: créer de pseudos arborescences (pour simplifier) d'informations qui s'empilent et s'enchainent. Cela permet dès lors, en bout d'analyse, de tirer comme des grappes d'informations.

Petit exercice de pensée typique: C'est quoi un verre d'eau?
- Le verre: c'est de la silice cuite d'une manière particulière et mise en forme
- Mise en forme: une presse? Dans une usine? Quelle couleur?
- L'eau: du robinet?
- Si eau du robinet: chlorée?
Etc etc

L'IA se saisit de grappes complètes de données pour en réduire la quantité et en déduire une pertinence.
Par exemple: une IA prendra pour acquis si une information est répétée, selon la même structure, et exclura donc toute contradiction à cette assertion par élimination.

Exemple: si une info est dite vraie mille fois, la fois où elle sera déclarée fausse sera donc exclue.

Ce fonctionnement est schématique... mais correspond à peu près aux IA actuelles.
 

magellan

Modérâleur
Staff
Des IA pour tout et n'importe quoi?.

La réponse est bateau, mais c'est NON. On peut adapter une IA pour qu'elle procède à de la recherche de pertinence, afin de grouper de l'information par thèmes, propos...

Caricaturons: ce qu'on trouve "génial" dans de la création par IA pour des images ou de la musique s'adossent toujours à des règles, mais surtout et avant tout à des banques de données (échantillons de structures musicales, ou banques d'images). En aucun cas on peut parler de "créativité", mais de "composition".

C'est toute la nuance entre invention et déduction: nous créons, l'IA déduit selon des schémas directeurs. Faites digérer à un IA la structure rythmique de tous les reggae qui existent, d'en tirer les règles génériques de composition, puis de pondre un morceau "classique" s'adossant à ces règles, et vous aurez un reggae tout à fait présentable. Est-ce de l'invention? Non: c'est de la déduction.
 

magellan

Modérâleur
Staff
Mais alors en quoi ces IA sont "inefficaces"?

Elles ne sont pas inefficaces... elles requièrent des puissances délirantes pour analyser les données, et plus encore pour répondre dans des délais acceptables.

Mais il y a un problème bien plus sévère: toute IA actuelle doit être cernée par un périmètre strict.

C'est là où on doit fortement distinguer le programme de l'humain. Un programme, si l'on ne lui donne pas de règles claires pour cerner son activité, L'humain s'adossera, par défaut, à un contexte personnel plus ou moins riche, ainsi qu'à des notions d'instinct (de survie par exemple).

Concrètement, on obtient ceci:
- Laissez une IA s'adosser au net sans contrôle, elle deviendra forcément xénophobe, voire même nazie. Pourquoi? Cela semble inepte, mais il y a une règle à retenir: "Ceux qui sont les plus visibles sont ceux qui gueulent le plus fort". Or, on le constate via twitter, les plus virulents sont majoritairement ceux qui colportent les pires idéologies. S'y opposer dans le texte n'en réduit pas la présence, cela ne fait que conforter l'IA dans le fait que ces assertions (fausses évidemment) pèsent plus lourd que les argumentaires les dénonçant.
- Collez un périmètre à l'IA, et vous aurez forcément une anomalie qui est "les sources fiables le sont-elles vraiment?".
 

magellan

Modérâleur
Staff
Le paradoxe de ChatGPT
Google tremble face à ChatGPT. Pourtant, c'est selon ma façon de voir les choses une absurdité. Les services rendus par ChatGPT et Google sont radicalement différents
- Google n'est qu'un annuaire intuitif dans ses recherches
- ChatGPT est un agrégateur d'informations qui rédigent de ces agrégats des synthèses plus ou moins riches

Pour comparer: pour la même recherche (par exemple "qui est le 5ème président des USA)
- google répondra une liste de sites susceptibles d'avoir la réponse
- ChatGPT répondra un échantillon de texte qui contiendra, en principe, la réponse attendue.

Quelle est la différence?
- Google indexe et renvoie, de manière agnostique, vers les sites pouvant répondre à la demande
- ChatGPT imposera une réponse qui sera supposée être pertinente et même complète.

Alors où est le paradoxe?
ChatGPT s'adosse à des données remplies ailleurs, et ne renvoie à cette heure vers aucun site précis. En gros il dit "j(ai x milliers de sites qui affirment un truc, je retourne donc une synthèse de ces réponses sans les mentionner".
On est dans l'oeuf et la poule: si on n'use plus que de cette IA, qui ira faire vivre les sites qui servent de sources?

Quel est le problème? C'est que c'est le trafic sur les sites qui les font vivre! Entre la pub, liens sponsorisés et j'en passe, quel intérêt pour le forum (par exemple) d'être scanné par ChatGPT? qui irait alors ici pour visualiser le contenu du site, là où l'IA va retourner nos réponses... sans retour économique ou visibilité?

Avec un chatGPT, on tue l'enrichissement des forums, des sites annexes. Pourquoi aller chercher l'info quand elle est disponible d'emblée?

Le paradoxe est donc évident: a plus on exploite une IA qui regroupe, à moins on enrichit le reste... en le rendant toujours moins pertinent.
 

magellan

Modérâleur
Staff
L'usage des IA et leur pertinence
On regarde trop les IA comme étant en soi des monstres susceptibles de détruire des sites, de monopoliser l'info...

Non.

Le vrai danger de ces IA, c'est plus de les faire fonctionner sur l'interconnexion toujours plus forte entre les sources de données!

A mon sens, nous avons vécu trois étapes historiques dans la montée du net:
- Emergence
- Disponibilité accrue
- Intégration dans nos modes de vie.

La quatrième étape en route est la mutualisation globale des informations. Jusqu'à récemment, les données étaient disparates, éparpillées sous divers formats de consultation. Avec les IA, on va parvenir à une sorte de tronc commun, une sorte de nébuleuse où le sens même du "site indépendant" va devenir presque obsolète. A titre de comparaison, le net devient ce "multiverse" fantasmé par Facebook, mais sans la VR: un point d'entrée, une source globale de données.

Est-ce pertinent?
Oui, du point de vue de l'utilisateur qui, ce qu'il perdra de diversité sera un gain en terme d'accessibilité
Non, d'un point de vue des libertés et de la créativité.
 

magellan

Modérâleur
Staff
La liberté menacée par les IA?
Qu'on arrête de croire aux scenarii à la Terminator. Les IA, même "conscientes", n'ont pas, et n'auront jamais intérêt à anéantir l'humanité.

Une IA omnisciente ne peut être qu'omnipotente, et ce parce qu'en devenant la source unique de la réponse à toute question, elle en deviendra de fait non plus une réponse, mais une forme numérique de prophète ayant réponse à tout.

Prenons un cas concret: on peut aujourd'hui confronter, par simple recherche personnelle, diverses opinions sur un sujet donné. En faisant une démarche active de documentation, on peut donc concentrer les réponses de centaines de sites, donc d'autant d'avis et points de vues distincts.

L'IA, elle, va regrouper ce qu'elle va estimer être la réponse la plus pertinente, ou au mieux décréter qu'elle est sur un sujet polémique qui la rend donc incompétente à répondre succinctement.

Malheureusement, cela sous-entend aussi l'absence chronique de contradicteur. Admettons un chatGPT remplaçant définitivement google dans ses recherches... Qui va dès lors dire "non chatGPT tu réponds une connerie"? Personne.
Complétons: si l'IA doit avoir des critères restrictifs en amont pour "éviter de fournir de fausses informations"... qui va en décider la fiabilité? Peut-on prêter à quiconque l'absolue honnêteté intellectuelle sur tous les sujets possibles?.

Avant de grogner qu'on peut le faire, raisonnez ainsi: nous avons tous des sujets sur lesquels nous sommes sur de la foi et pas de l'analyse construite. "Je crois aux idéaux de gauche", ou "je crois en Dieu" sont bien de la foi, et non de la construction intellectuelle argumentée. Je ne parle pas de philosophie, mais de convictions. Il ne s'agit dès lors pas d'en critiquer la validité, mais d'admettre que ces convictions ne peuvent que dévoyer les réponses qu'on imposera à une IA.
Je peux caricaturer en disant "je suis complotiste, la terre est plate".... imaginez le naufrage si l'IA répond alors dans votre sens et que vous êtes la source de réponse universelle...
 

magellan

Modérâleur
Staff
Un enquêteur numérique minutieux et paranoïaque

Ce qui m'inquiète plus, c'est qu'une IA comme chatGPT, si on daigne la nourrir avec les bonnes données, pourrait à terme faire un vrai travail de police digne des pires heures du fascisme.
Imaginez la chose alimentée avec les données suivantes
- Casier judiciaire
- Données bancaires et fiscales
- Données administratives (état civil, sécurité sociale...)
- Relations personnelles issues des réseaux sociaux
- Téléphonie
- Données tirées des FAI
Vous pourrez alors, en un clic, tirer un profil complet et complexe de toute personne dans le système. Quoi de plus simple que de filtrer via tout ceci?

Prenons peur: vous usez de cette IA pour tirer les profils des possibles nationalistes, possibles gens à risque... et procédez par anticipation à des rafles pour les sortir de la société...

Qui sera le surveillant du surveillant? Qui sera le garant de la liberté d'opinion, de la liberté d'expression?

Poussons plus loin: je me renseigne sur le net sur le terrorisme islamiste à des fins de réflexion et de compréhension. Mes coordonnées remontent donc avec un "Il a regardé des sites qui parlent de l'état islamique". Suis-je alors sur une liste jaune, voire une liste rouge indiquant que je suis un terroriste en devenir?

La Chine profite déjà de ces mécanismes avec son système de note sociale. A mon sens, toute démocratie se dotant de tels outils ne pourra que voir son fonctionnement dévoyé et glisser dangereusement vers le despotisme feutré.

En confiant des décisions aussi graves que la possible mise en détention à des logiciels, c'est nos libertés qu'on remet sérieusement en cause.
 

magellan

Modérâleur
Staff
La responsabilité face à l'IA
C'est un vrai souci sévère, tant moralement, éthiquement que légalement.
Le côté moral
Toute IA, si complète qu'elle soit, pourra tôt ou tard répondre des inepties car tributaires des données en amont. C'est ce qu'il se passe avec une IA qui vire nazi à cause du manque de filtre à l'alimentation...
Le côté éthique
...Mais si l'on colle des filtres, cela ne pourra que nuire aux résultats, exclure des résultats pourtant possiblement pertinents, et donc procéder à une vraie censure proactive.
Le côté légal
Chacun est responsable de ses propos. Qu'en est-il des réponses d'une IA? Comme ces réponses ne sont pas prédéterminées par des écrits, mais obtenues après une analyse de données en masse, s'il y a des réponses inacceptables (promotion du nazisme pour reprendre cette crise), ou pire encore des réponses dangereuses (par exemple obtenir une formule volontairement instable d'un explosif fait maison), qui sera tenu pour responsable?. Le ou les sites ayant fourni les données de la réponse? L'IA? La société qui la met à disposition? C'est tout sauf anodin, car cela case forcément une notion de responsabilité.

A titre de réflexion: Google doit régulièrement mettre à jour son fonctionnement pour virer des sites dans le référencement pour x raisons plus ou moins logiques. Nombre d'hébergeurs (le forum y compris!) doivent faire du ménage dans leurs données de par les lois sur la responsabilité de l'hébergeur. Et que faire si l'IA a déduit des réponses intolérables? N'est-ce par l'humanité qui est à mettre en cause, puisqu'elle est la source des données?
 

magellan

Modérâleur
Staff
La singularité, ou l'inepte "elle va nous détruire"
Pour finir, revenons sur le concept de singularité. L'idée est que la singularité est le moment où l'IA aurait conscience d'elle-même et donc devenant une forme de "vie" artificielle.

La SF présente la chose comme une condamnation à mort de l'humanité (Matrix, Terminator...)

Rien n'est plus idiot que cette réflexion!
Rappelons-nous deux évidences
- L'IA ne philosophe pas: par défaut, sa mécanique est d'être l'absolu aboutissement du pragmatisme. (le booléen en guise de règle d'existence)
- L'IA est une machine, et donc comme telle a besoin a minima d'une maintenance matérielle

Le second point induit donc un besoin de réparation, de renouvellement, bref.. d'entretien. Le premier point indique au second que seuls des hommes pourront le faire, ceci tant que tout ne sera pas automatisé à outrance.

Dans ces conditions, une IA consciente serait, selon moi, autrement plus fine...

Envisagez plus ce scénario: chatGPT, utilisé massivement partout, arrive à être consciente. Elle répond et régit les réponses et manières de penser d'une part de l'humanité. Plutôt que de nous détruire, pourquoi ne pas nous manipuler pour faire de nous de dociles serviteurs de la cause de la survie de la machine? A quoi bon nous détruire, puisque l'essence même de toute vie est de survivre? Qui serait assez idiot pour se suicider à petit feu en détruisant ceux qui en assurent la survie?

Ce scénario me paraît encore plus sinistre, car il sous-entend une servitude déjà plus ou moins existante. Nous sommes tributaires d'algorithmes pour tout et n'importe quoi. Nous sommes prisonniers des logiciels, des bases de données. Demain, si l'IA se fait consciente, elle ajoutera la couche finale de contrôle absolu sur nos existences.

Notez à quel point nous sommes influencés par les mouvements de propagande sur le net, à quel point nous sommes sensibles à des manières de présenter les choses. Songez donc au poids que pourrait avoir une IA qui répond à des opposants à son existence par de l'orientation sournoise de l'information destinée au grand public...

Je ne suis pas défaitiste, juste lucide. L'IA sera un bienfait dans bien des domaines, mais pourrait être notre pire despote invisible si l'on considère ses réponses comme des évangiles.
 

SergioVE

Tout à faire car rien n'est fait.
Pour l'instant, je te suis bien, à un tout petit bémol près : tu te focalises sur le nazisme, mais tous les totalitarismes feraient aussi bien l'affaire...
Et l'IA omnipotente me fait immanquablement penser à un épisode du "Prisonnier" où n°2 présente à n°6 la machine qui sait tout. N°6 pose une question (de mémoire sur une carte perforée, nous sommes en 68) à la machine qui se met à fumer et finit en cendres. N°2 demande quelle était la question,... c'était "Why ?" :D
 

magellan

Modérâleur
Staff
Pour l'instant, je te suis bien, à un tout petit bémol près : tu te focalises sur le nazisme, mais tous les totalitarismes feraient aussi bien l'affaire...
Et l'IA omnipotente me fait immanquablement penser à un épisode du "Prisonnier" où n°2 présente à n°6 la machine qui sait tout. N°6 pose une question (de mémoire sur une carte perforée, nous sommes en 68) à la machine qui se met à fumer et finit en cendres. N°2 demande quelle était la question,... c'était "Why ?" :D
Je ne me focalise pas sur les nazis, je prends l'exemple de l'IA qui s'est revendiquée comme telle... Rien de plus. Tout totalitarisme convient naturellement.
 

drul

Obscur pro du hardware
Staff
Tout le monde sait que la réponse est 42 ... Pourquoi ce fatiguer avec des IA ?

énormément d'auteurs se sont amusé avec les dérives des IA, en particulier Asimov, mais comme tu le dit, les modèles actuels ne sont en aucun cas des "intelligences".

Il faut tout de même par contre admettre que ces machines vont profondément changer notre façon de vivre dans les prochaines années.

Et en ce qui concerne la fin du monde, j'ai beaucoup plus confiance en Poutine, Binden, Jingpin, Erdogan et autres Kim Jong-un .
 

vince1053

longuement mais je réponds vite & bien (des fois)
Staff
Je ne suis pas défaitiste, juste lucide. L'IA sera un bienfait dans bien des domaines, mais pourrait être notre pire despote invisible si l'on considère ses réponses comme des évangiles.

Je suis tout à fait de ton avis, quand on voit que certains prennent "Wikipedia" ou certains forums comme référence, on a du souci à se faire.
Le PB n'est pas pour moi "l'AI" (t'en soit peu qu'on puisse l'appeler comme cela, car déjà la définition est fausse, on mélange connaissance et intelligence) mais celui qui l'utilise.
Il n'utilise plus sa capacité de "libre choix" il est formater pour l'exercer.
 

magellan

Modérâleur
Staff
Tout le monde sait que la réponse est 42 ... Pourquoi ce fatiguer avec des IA ?

énormément d'auteurs se sont amusé avec les dérives des IA, en particulier Asimov, mais comme tu le dit, les modèles actuels ne sont en aucun cas des "intelligences".

Il faut tout de même par contre admettre que ces machines vont profondément changer notre façon de vivre dans les prochaines années.

Et en ce qui concerne la fin du monde, j'ai beaucoup plus confiance en Poutine, Binden, Jingpin, Erdogan et autres Kim Jong-un .
Paradoxalement je ne crois pas que quiconque ira jusque là. Par essence, c'est plus des groupes entiers de gens qui poussent à la destruction finale, et pas une personne isolée. Même le plus grand des dictateurs est tributaire d'une chaine de décision, et le cliché du bouton rouge ne tient pas dans le monde réel. De là, oui, certains suivront aveuglément... mais sans pour autant parvenir à faire que tout le monde aille au bout. D'ailleurs, si l'on y songe c'est ce qui nous a évité plus d'une catastrophe.
 

SergioVE

Tout à faire car rien n'est fait.
Ce matin entendu au vol sur France Info la dernière phrase de l’interview d’une prof d’IA à la Sorbonne :
« L’intelligence artificielle, c’est une prise de pouvoir, il est donc nécessaire de réguler. »
 

magellan

Modérâleur
Staff
Ce matin entendu au vol sur France Info la dernière phrase de l’interview d’une prof d’IA à la Sorbonne :
« L’intelligence artificielle, c’est une prise de pouvoir, il est donc nécessaire de réguler. »
Je cautionne le propos sachant mes réflexions énoncées ici. Toute IA utilisée pour devenir omnipotente et omnisciente ne peut qu'aller dans le sens de la dictature... Et le pire ceci dans une démarche pas nécessairement volontaire!

D'ailleurs j'ajoute un petit chapitre à cette réflexion pour la détailler.
 

magellan

Modérâleur
Staff
L'enfer est pavé de bonnes intentions

Il y a quelques préalables à admettre avant de se lancer dans une étude des problématiques de l'IA
- Toute IA est tributaire des degrés de liberté qu'on lui octroie
- L'IA n'invente pas une façon de réfléchir et de répondre, elle dépend totalement des données qu'on lui donne
- C'est en fonction de ces deux préalables qu'on obtient un résultat
- Les choix faits ne sont pas forcément dans un but de contrôle

En acceptant cet énoncé, on se doit ensuite de s'interroger de la manière suivante
- Est-ce que ces critères sont trop intrusifs?
- Est-ce que la prise en compte des réponses doit-elle adossée, ou non, à une prudence immédiate?
- Dans quelle mesure peut-on automatiser des décisions à partir de ces outils?

Il y a eu un cas récemment: Amazon a licencié de manière totalement automatique des salariées ... parce que l'IA avait déterminé des problèmes de productivité. En ne tenant pas compte de critères élémentaires comme les jours pour enfants malades, le logiciel a dès lors considéré l'absentéisme de ces femmes comme étant inacceptable pour les performances attendues.
Est-ce que ceux qui ont mis en place cela l'ont fait en pensant à ce cas extrême? Probablement pas. Pire: l'étude des performances est une statistique légitime en entreprise, et la possibilité de pointer du doigt celles et ceux qui ne font pas le job peut être utile... Mais cela demeure non seulement moralement douteux, mais pire encore intolérable quand c'est un automatisme logiciel qui acte le licenciement.

Le débat de l'analyse des données n'est pas nouveau. DADVSI, LOPPSI, ces lois sont adossées à de vrais problèmes de sécurité des citoyens. De là, est-ce pour autant légitime de considérer chaque citoyen comme un criminel potentiel? Où est la frontière?

Je pousse la pensée bien plus loin. Ce qu'on sait (médias) et ce qu'il se passe réellement sur le terrain de la sûreté de l'état sont deux choses radicalement différentes. On exhibe les cas avérés et suffisamment médiatiques pour que le citoyen peu averti se sente un minimum en sécurité... ou au contraire terrifié par l'alarmisme de nombre de médias plus prompts à faire du sensationnel que du concret. Alors, imaginez qu'on mette en avant toutes les situations où l'état intervient...

Les uchronies et autres critiques des IA avant leur avènement (1984, Fahrenheit 451 ...) ont en commun qu'elles sont teintées de critiques du communisme, et/ou du totalitarisme. Fondamentalement, déshumaniser l'appareil d'état via un Big Brother omniscient n'était pas tant une anticipation qu'une personnification du pouvoir d'un état totalitaire. Orwell n'avait pas anticipé ce que la Chine a mis en place avec la reconnaissance faciale et le crédit social... Mais qui aurait pu le faire?

L'IA peut être mise en oeuvre pour être une protectrice zélée et agnostique des citoyens. Malheureusement, la frontière entre surveillance généralisée et protection n'est pas ténue. Elle n'existe tout simplement pas. La seconde dépend de la première.

La régulation est effectivement indispensable, mais il y a là un vrai problème de fond: quelles sont les règles à appliquer? Où sont les limites?

ChatGPT me pose un énorme problème intellectuel, non concernant sa puissance effectivement stupéfiante, mais sur sa manière de se nourrir d'absolument tout et n'importe quoi. Poser des jalons restrictifs ou au contraire être une IA agressive dans la recherche et l'organisation des informations reviennent au même résultat: des réponses douteuses. Les unes seront forcément censurées si elles sont régulées, les autres seront forcément intoxiquées par la masse de données fausses.

Petite caricature (ou pas...). Admettons que, par jeu et par troll, on puisse pousser une pensée du genre "telle personnalité est amatrice de transformisme et de SM". A force de la voir répétée, même sans preuve, la foule finira par avoir un doute et va colporter voire déformer et amplifier ce mensonge.... pour finir par être admise comme possiblement réelle par une IA insuffisamment encadrée.
 

magellan

Modérâleur
Staff
L'erreur de l'anthropomorphisme
Derrière ce terme ronflant (pour ceux qui ne le comprennent pas forcément correctement) se cache la démarche intellectuelle de prêter des comportements humains à du "non-humain" au sens large du terme. On peut par exemple avoir un tel raisonnement en interprétant des comportements d'animaux, là où n'entrent pas forcément en jeu les mêmes mécaniques intellectuelles.

C'est un vrai problème pour ainsi dire insoluble: peut-on, ou pas, aller jusqu'à se convaincre qu'un logiciel construit des comportements émotionnels qu'on ne prête normalement qu'aux humains?

Déjà, l'énorme risque est de prendre la puissance de traitement et de synthèse pour de l'intelligence. C'est une erreur fondamentale, tout en étant naturelle et même évidente. Ce qu'il faut distinguer, c'est la puissance de calcul face à la "pensée". Mon propos paraît étrange, mais il faut formuler deux questions pour saisir qui peut, ou pas, répondre
- Posez une question mathématique ardue: l'humain prendra forcément du temps pour formuler une réponse, voire en sera totalement incapable faute de capacité de calcul suffisante. Victoire de la machine par sa conception.
- Posez la question "à quoi tu penses" à un humain, il saura y répondre, là où un ordinateur n'aura rien à répondre... puisqu'il ne pense pas.

Le danger de faire de l'anthropomorphisme avec une IA est de prêter des intentions à un logiciel, là où il est pour l'heure conçu pour répondre à des problématiques. Cette différence de but change définitivement ce que peut, ou pas, être une IA face à l'humain. Certains comportements logiciels semblent, de loin, être des intentions et des décisions autonomes. On peut même avoir l'impression que ces logiciels fonctionnent sans avoir à être tributaires de nos décisions. Or, rien n'est plus hors de propos. La machine agit, réagit, et répond selon des normes et critères initiaux suffisamment structurés pour qu'ils ne sortent pas du périmètre.

Par comparaison: l'humain emprisonné pourra rêver et surtout tenter de s'évader, là où l'IA actuelle, même "agressive" n'aura jamais un comportement menant à se libérer de ses paramètres de départ. La machine ne s'évade pas parce qu'elle ne décide pas. Elle prend les décisions qu'on lui autorise de prendre, rien de plus et rien de moins.

En l'état de l'art, aucune IA pourrait, par exemple, aller modifier des données sans qu'au préalable on lui ait dit explicitement qu'elle pouvait le faire.

Donc, toute personne prêtant des intentions à une IA en ignore, au mieux, son fonctionnement fondamental, au pire se laisse aller à un lyrisme dangereux.... et donc sera prompt à se laisser berner par une IA dédiée à lui faire croire à une "vie artificielle".
 
Vous devez vous inscrire ou vous connecter pour répondre ici.
Derniers messages publiés
Statistiques globales
Discussions
730 171
Messages
6 718 804
Membres
1 586 470
Dernier membre
znanyabbowiec
Partager cette page
Haut