Aller au contenu
AIR-DEFENSE.NET

La technologie contre la démocratie ?


Messages recommandés

J'ouvre un nouveau fil pour ne pas encombrer le fil Chine où cette question a été abordée.

Quand on réfléchit à l'avenir de la démocratie dans le monde, on est tenté de reprendre une géopolitique traditionnelle, de guerre froide, où il y aurait d'un côté le camp des démocraties, et de l'autre celui des dictatures. Les Athéniens contre Sparte.

Mais il me semble que la technologie, en menaçant la démocratie de l'intérieur, complique significativement cette vision.

Voilà ce que dit Henry Kissinger sur l'intelligence artificielle :

https://www.theatlantic.com/magazine/archive/2018/06/henry-kissinger-ai-could-mean-the-end-of-human-history/559124/ (juin 2018)

Quel serait l'impact sur l'histoire des machines d'auto-apprentissage - des machines qui acquièrent des connaissances par des processus qui leur sont propres, et qui appliquent ces connaissances à des fins pour lesquelles il n'existe peut-être aucune catégorie de compréhension humaine ? Ces machines apprendraient-elles à communiquer entre elles ? Comment les choix seraient-ils faits parmi les options émergentes ? L'histoire humaine pourrait-elle suivre le chemin des Incas, confrontés à une culture espagnole incompréhensible et même impressionnante pour eux ?

Comment allons-nous gérer l'IA, l'améliorer ou, à tout le moins, l'empêcher de faire du mal, ce qui nous amène à la préoccupation la plus inquiétante : l'IA, en maîtrisant certaines compétences plus rapidement et plus définitivement que les humains, pourrait, avec le temps, diminuer les compétences humaines et la condition humaine elle-même en les transformant en données.

Trois domaines sont particulièrement préoccupants :

Pouvons-nous, à un stade précoce, détecter et corriger un programme d'IA qui agit en dehors de notre cadre d'attente ? Ou bien l'IA, laissée à elle-même, va-t-elle inévitablement développer de légères déviations qui pourraient, avec le temps, se transformer en basculements catastrophiques ?

Deuxièmement, qu'en atteignant les objectifs visés, l'IA peut changer les processus de pensée et les valeurs humaines. AlphaGo a battu les champions mondiaux du Go en réalisant des mouvements stratégiques sans précédent - des mouvements que les humains n'avaient pas conçus et qu'ils n'ont pas encore appris à surmonter avec succès. Ces mouvements dépassent-ils la capacité du cerveau humain ? Ou les humains pourraient-ils les apprendre maintenant qu'ils ont été démontrés par un nouveau maître ?

Au-delà des questions factuelles ("Quelle est la température extérieure ?"), les questions sur la nature de la réalité ou le sens de la vie soulèvent des problèmes plus profonds. Voulons-nous que les enfants apprennent des valeurs par le biais d'un discours avec des algorithmes débridés ? Devrions-nous protéger la vie privée en limitant l'apprentissage de l'IA sur ses interrogateurs ? Si oui, comment atteindre ces objectifs ?

L'IA pourrait bientôt être en mesure d'optimiser les situations de manière au moins marginalement différente, et probablement significativement différente, de la manière dont les humains les optimiseraient. Mais à ce moment-là, l'IA pourra-t-elle expliquer, d'une manière que les humains pourront comprendre, pourquoi ses actions sont optimales ? Ou est-ce que la prise de décision de l'IA dépassera les pouvoirs explicatifs du langage et de la raison humaine ?

Un système juridique conçu par l'homme peut-il suivre le rythme des activités produites par une IA capable de les dépasser et potentiellement de les manipuler ?

Les Lumières ont commencé avec des idées essentiellement philosophiques diffusées par une nouvelle technologie. Notre époque va dans la direction opposée. Elle a généré une technologie potentiellement dominante à la recherche d'une philosophie directrice. D'autres pays ont fait de l'IA un grand projet national. Les États-Unis n'ont pas encore, en tant que nation, exploré systématiquement toute sa portée, étudié ses implications ou entamé le processus d'apprentissage ultime. Il convient d'accorder une grande priorité nationale à cette question, surtout du point de vue de la mise en relation de l'IA avec les traditions humanistes.

Les développeurs de l'IA, aussi inexpérimentés en politique et en philosophie que je le suis en technologie, devraient se poser certaines des questions que j'ai soulevées ici afin d'intégrer des réponses dans leurs efforts d'ingénierie. Le gouvernement américain devrait envisager la création d'une commission présidentielle composée d'éminents penseurs pour aider à développer une vision nationale. Ce qui est certain, c'est que si nous ne commençons pas cet effort rapidement, nous découvrirons bientôt que nous avons commencé trop tard.

https://quillette.com/2020/12/03/the-apocalyptic-threat-from-artificial-intelligence-isnt-science-fiction/ (3 décembre 2020)

James D. Miller, professeur d'économie à Smith College :

La rupture véritablement massive se produira lorsque les IA pourront égaler ou dépasser la puissance de réflexion du cerveau humain.

Si, toutefois, l'humanité libère une IA plus intelligente que la nôtre avant de trouver comment aligner ses valeurs sur les nôtres, nous pourrions plutôt provoquer une apocalypse.

La quantité de puissance de calcul disponible par coût unitaire a augmenté de façon exponentielle depuis les années 1940. Ainsi, une fois que les intelligences informatiques auront atteint la parité dans la recherche scientifique avec les meilleurs cerveaux humains, il ne leur faudra pas longtemps pour surpasser largement même les meilleurs d'entre nous.

Plus particulièrement, nous n'avons aucun espoir raisonnable que le simple fait d'être une superintelligence puisse amener une IA à développer un concept de moralité qui valorise le bien-être humain. La plupart des humains, certainement, se soucient peu de la plupart des créatures de moindre intelligence. Combien de personnes sacrifieraient n'importe quoi pour aider un rat ? Et les humains sont probablement beaucoup plus proches des rats en termes d'intelligence et de biologie qu'une IA superintelligente ne le sera pour nous.

Imaginez qu'une IA ait un objectif qui nous semble stupide. L'exemple standard utilisé dans la littérature sur la sécurité des IA est une IA qui veut maximiser le nombre de trombones dans l'univers. Imaginez qu'un maximiseur de trombones soit extrêmement intelligent et disposé à vous écouter avant de transformer les atomes de votre corps en trombones (ou, de façon plus réaliste, en quelque chose qui puisse être utilisé pour fabriquer des trombones). Que pourriez-vous dire pour convaincre l'IA qu'elle s'est trompée ? Si l'IA avait fait une erreur de calcul ou s'était appuyée sur des données erronées, vous auriez un peu d'espoir. Mais si l'IA ne s'intéresse qu'à la maximisation des trombones, pour des raisons qui lui sont parfaitement rationnelles, que pourrait dire un sac à viande faible d'esprit pour lui faire changer d'avis ?

Personne ne pense sérieusement qu'une IA va devenir un maximiseur de trombones. Mais une superintelligence informatique développerait probablement des objectifs, et nous ne pouvons pas commencer à imaginer à l'avance ce qu'ils pourraient être ou comment ils nous affecteraient. Pour beaucoup de ces objectifs, elle voudrait acquérir des ressources. Il y a un nombre fini d'atomes dans notre univers, et une quantité finie d'énergie libre. Comme l'a écrit Eliezer Yudkowsky, théoricien pionnier de la sécurité de l'IA : "L'IA ne vous déteste pas, ni ne vous aime, mais vous êtes fait d'atomes qu'elle peut utiliser pour autre chose".

La solution semble donc simple : Ne créons pas une super-intelligence IA tant que nous ne sommes pas certains de savoir comment la rendre amicale. Malheureusement, des IA de plus en plus intelligentes offrent des avantages économiques et militaires tentants. Pour cette seule raison, nous continuerons probablement à améliorer nos IA, et nous ne savons pas vraiment à quel moment une IA deviendra trop intelligente pour que nous puissions la contrôler entièrement.

Modifié par Wallaby
  • Merci (+1) 4
Lien vers le commentaire
Partager sur d’autres sites

Kissinger, un économiste,...
D'après les gens qui travaillent sur le sujet, on n'est pas prêt de créer des programmes polyvalents capables d'entrer en compétition avec l'esprit humain.
On développe des programmes spécialisés très bons sur une tâche, comme le joueur de go. Et la mode est à certaines techniques appelées "deep learning".
On sait aussi créer des systèmes très bons pour la reconnaissance d'images et la classification, même meilleurs que nous. Et cela correspond à des besoins précis.
"IA" est un terme marketing, ça m'a bien fait sourire d'entendre dans une pub d'un quelconque téléphone portable "doté d'intelligence artificielle".
Laissons donc ce terme "IA" et tous les fantasmes qu'il véhicule.
Il n'est pas nécessaire que des programmes atteignent un niveau de performances polyvalentes comparable à l'esprit humain pour que surgissent toutes sortes de difficultés et problèmes éthiques.
On le voit bien par exemple avec les systèmes de conduite autonome.

 

  • J'aime (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

il y a une heure, WizardOfLinn a dit :

Kissinger, un économiste,...
D'après les gens qui travaillent sur le sujet, on n'est pas prêt de créer des programmes polyvalents capables d'entrer en compétition avec l'esprit humain.
On développe des programmes spécialisés très bons sur une tâche, comme le joueur de go. Et la mode est à certaines techniques appelées "deep learning".
On sait aussi créer des systèmes très bons pour la reconnaissance d'images et la classification, même meilleurs que nous. Et cela correspond à des besoins précis.
"IA" est un terme marketing, ça m'a bien fait sourire d'entendre dans une pub d'un quelconque téléphone portable "doté d'intelligence artificielle".
Laissons donc ce terme "IA" et tous les fantasmes qu'il véhicule.
Il n'est pas nécessaire que des programmes atteignent un niveau de performances polyvalentes comparable à l'esprit humain pour que surgissent toutes sortes de difficultés et problèmes éthiques.
On le voit bien par exemple avec les systèmes de conduite autonome.

 

 

Oui, il confond  les "intelligences artificielles" actuelles qui sont surtout des machine à calculer très sophistiquées et  la vraie IA entendue comme intelligence générale - qu'on ne sait même pas définir !

Les 1er font effectivement du deep learning, c'est à dire "apprennent" en moulinant des bases de données grâce à des outils statistiques, probabilistes, et d'exploration d'embranchement de graphes ; c'est de la combinatoire ++ en fait. D'ailleurs parler de "machin learning"  de "machine apprenante"  ou encre de "système expert" comme ont le fait dans le monde universitaire anglo-saxon. Non que le terme "d'intelligence artificielle" soit faux en soi, mais il prête  à confusion , d'autant que certain ont intérêt à l'entretenir (regard appuyé sur Laurent Alexandre....).

ça veut pas dire que ces technologie ne peuvent pas être problématique, que ce soit au main d'Etat totalitaire ou d'entreprises cherchant s'ingérer dans la vie privé des consommateurs. 

 

 

Modifié par Shorr kan
  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

James Miller parle de GPT3. Voici ce qu'en dit Wikipédia :

https://fr.wikipedia.org/wiki/GPT-3

Parce que GPT-3 peut « générer des articles de presse que les évaluateurs humains ont du mal à distinguer des articles écrits par des humains »4, GPT-3 a le "potentiel de faire progresser les applications tant bénéfiques que néfastes des modèles de langage. ». Dans leur article du 28 mai 2020, les chercheurs ont décrit en détail les « effets néfastes potentiels du GPT-3 »4 qui comprennent « la désinformation, le spam, l'hameçonnage, l'abus des processus légaux et gouvernementaux, la rédaction frauduleuse d'essais universitaires et le pretexting d'ingénierie sociale ». Les auteurs attirent l'attention sur ces dangers pour demander des recherches sur l'atténuation des risques.

En 2020, la start-up française Nabla a conçu un chatbot médical basé sur GPT-3, malgré les contre-indications d'OpenAI. Lors des phases de test, le chatbot a conseillé à un patient simulé de se suicider.

  • Haha (+1) 3
Lien vers le commentaire
Partager sur d’autres sites

il y a une heure, WizardOfLinn a dit :

D'après les gens qui travaillent sur le sujet, on n'est pas prêt de créer des programmes polyvalents capables d'entrer en compétition avec l'esprit humain.
On développe des programmes spécialisés très bons sur une tâche, comme le joueur de go. Et la mode est à certaines techniques appelées "deep learning".
On sait aussi créer des systèmes très bons pour la reconnaissance d'images et la classification, même meilleurs que nous. Et cela correspond à des besoins précis.
"IA" est un terme marketing, ça m'a bien fait sourire d'entendre dans une pub d'un quelconque téléphone portable "doté d'intelligence artificielle".
Laissons donc ce terme "IA" et tous les fantasmes qu'il véhicule.
Il n'est pas nécessaire que des programmes atteignent un niveau de performances polyvalentes comparable à l'esprit humain pour que surgissent toutes sortes de difficultés et problèmes éthiques.
On le voit bien par exemple avec les systèmes de conduite autonome.

 

C'est généralement ce que l'on dit lorsque l'on bloque sur des obstacles techniques un certain temps jusqu'au jour où un petit malin trouve la solution et tout peut s’emballer. fondamentalement le problème ce n'est pas de savoir si une IA nous dépassera un jour mais plus de savoir quand l'humain arrivera à produire une nouvelle espèce capable de le détrôner. L'univers a engendré le cerveau à la suite d'une gigantesque combinaison d'interactions moléculaires dans  leur grande majorité aléatoires donc qu'est ce qui empêcherai l'humain de refaire cet exploit et même mieux du haut de son intelligence? Aujourd'hui les briques technologiques se mettent en place une à une à travers le monde nous rapprochant toujours un peu plus de ce fantasme mortifère de l'espèce humaine de créer une autre forme de vie potentiellement supérieure.

Comme vous le soulignez, les algorithmes auto-apprenants posent déjà de gros problèmes éthiques et sociétaux et encore plus entre des mains peu scrupuleuses mais ils ne sont que des briques et cela devrait déjà nous éclairer sur le potentiel d'une véritable IA avec un objectif décorrélé des besoins humains et l'impact qu'elle aura sur notre avenir. Le plus tôt nous prendront des mesures pour s'y préparer le mieux ce sera car le jour de son arrivée les événements pourraient brusquement s’accélérer dans un monde largement numérisé, connecté et automatisé. Et cette IA n'aura pas besoin de prendre la forme d'un Terminator ou d'un Cylon pour chambouler nos vies et se rendre incontournable...

 

Lien vers le commentaire
Partager sur d’autres sites

Il y a 1 heure, WizardOfLinn a dit :

Kissinger, un économiste,...
D'après les gens qui travaillent sur le sujet, on n'est pas prêt de créer des programmes polyvalents capables d'entrer en compétition avec l'esprit humain.

Je pense qu'il y a deux façons d'exagérer (ou de sous-estimer) le danger, la première c'est de ne pas assez bien connaître ces systèmes et leurs performances, la deuxième étant de ne pas assez connaître le cerveau humain.

Dans ce dernier domaine, le cerveau humain, sans parler du cerveau du poisson rouge ou du rat, il reste, malgré les découvertes récentes, en grande partie un mystère. C'est peut-être ce qui nous sauve. Bien maligne l'Intelligence Artificielle qui comprendra comment nous fonctionnons, parce que pour l'instant nous ne le savons pas nous-mêmes.

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Pour être utulisateur et connaitre les bases... les AI n'existent pas. Rien du tout. 

C'est simple. On a des also de de big data / deep learning qui sont d'une stupidité totale et inutiles sans entrainement de millions de cas. Aucune adaptabilité, aucune compréhension et soit dit en parlant on sait souvent même pas pourquoi ça donne tel ou tel résultat.

 

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Il y a 12 heures, Wallaby a dit :

James Miller parle de GPT3. Voici ce qu'en dit Wikipédia :

https://fr.wikipedia.org/wiki/GPT-3

En 2020, la start-up française Nabla a conçu un chatbot médical basé sur GPT-3, malgré les contre-indications d'OpenAI. Lors des phases de test, le chatbot a conseillé à un patient simulé de se suicider.

C'était peut être la meilleure solution, peut être pas pour le corps du patient, mais pour ça famille...

Ou pour le chatbot qui n'en pouvais plus :bloblaugh:

Il y a bien des potes à moi qui me saoulant avec leurs histoire de coeur mon vue leurs répondre :

mais va te pendre, si tu ne peux pas vivre sans elle, mais fait le chez toi BORDEL !!!

J'ai autre chose a foutre...

 

j'ai plus beaucoup de potes du coup...

:cool::cool::cool:

  • Haha (+1) 4
Lien vers le commentaire
Partager sur d’autres sites

 

Sur un autre forum (pas ici), je soupçonne certains intervenants d'être des programmes en cours de test :tongue:


Vers 1980, on appelait "intelligence artificielle" des systèmes experts. La grande affaire était de découpler bases de connaissances et moteurs d'inférences. Et puis ces techniques sont un peu passée de mode. Maintenant c'est autre chose.

Il faut plutôt voir les systèmes actuels comme des amplificateurs des aptitudes intellectuelles humaines, tout comme auparavant on a développé diverses machines amplifiant la force musculaire.
Ce qui est même rappelé dans certaines unités un peu obsolète : en conduisant une automobile avec un moteur de 70 chevaux, on est réellement aux commandes d'un attelage de 70 canassons en puissance, et même plus (un cheval ne court pas à 120 km/h). Et ça se conduit avec très peu d'effort physique.
De même, un seul opérateur humain peut surveiller beaucoup de monde avec des caméras et systèmes informatiques pseudo-intelligents le déchargeant de certaines taches d'analyses élémentaires, et même ayant un peu d'autonomie programmée sur certaines fonctions.
En laissant de côté les termes un peu racoleurs d'"intelligence artificielle", dont la signification aura probablement encore changé dans 20 ou 30 ans, et les fantasmes à la Terminator, il y a un vrai sujet sur les usages malveillants, criminels, liberticides, etc.  qu'on peut faire de ces systèmes.

 

 

Modifié par WizardOfLinn
  • Upvote (+1) 2
Lien vers le commentaire
Partager sur d’autres sites

Il y a 17 heures, cracou a dit :

C'est simple. On a des algo de de big data / deep learning qui sont d'une stupidité totale et inutiles sans entrainement de millions de cas. Aucune adaptabilité, aucune compréhension et soit dit en parlant on sait souvent même pas pourquoi ça donne tel ou tel résultat.

Tout à fait mais tout comme un neurone seul ne fait pas grand chose, ça n’empêche pas un ensemble de plusieurs milliards de neurones dans un cerveau d'avoir des émotions complexes et de créer les arts et les sciences. Tout comme une porte logique seule a un intérêt très limitée, cela n’empêche pas une architecture de plusieurs millions de portes logiques dans un processeur de faire tourner la machine sur laquelle tu écris tes messages, de faire voler les avions en toute sécurité, de faire fonctionner de manière fiable et facile nos voitures ou de servir de support à l'ensemble de notre économie et de nos échanges.

Lien vers le commentaire
Partager sur d’autres sites

Il y a 22 heures, Wallaby a dit :

James Miller parle de GPT3. Voici ce qu'en dit Wikipédia :

https://fr.wikipedia.org/wiki/GPT-3

Parce que GPT-3 peut « générer des articles de presse que les évaluateurs humains ont du mal à distinguer des articles écrits par des humains »4, GPT-3 a le "potentiel de faire progresser les applications tant bénéfiques que néfastes des modèles de langage. ». Dans leur article du 28 mai 2020, les chercheurs ont décrit en détail les « effets néfastes potentiels du GPT-3 »4 qui comprennent « la désinformation, le spam, l'hameçonnage, l'abus des processus légaux et gouvernementaux, la rédaction frauduleuse d'essais universitaires et le pretexting d'ingénierie sociale ». Les auteurs attirent l'attention sur ces dangers pour demander des recherches sur l'atténuation des risques.

En 2020, la start-up française Nabla a conçu un chatbot médical basé sur GPT-3, malgré les contre-indications d'OpenAI. Lors des phases de test, le chatbot a conseillé à un patient simulé de se suicider.

Voilà qui rappelle la, gros guillemets, "belle" (:wacko:)  histoire de TAY A.I. de Microsoft en 2016.

Elle avait tenu 16 heures en ligne.

Lien vers le commentaire
Partager sur d’autres sites

il y a 6 minutes, Patrick a dit :

Voilà qui rappelle la, gros guillemets, "belle" (:wacko:)  histoire de TAY A.I. de Microsoft en 2016.

Elle avait tenu 16 heures en ligne.

Merci pour l'info.

https://fr.wikipedia.org/wiki/Tay_(intelligence_artificielle)

indique que Tay a eu un successeur, nommé Zo : https://fr.wikipedia.org/wiki/Zo_(intelligence_artificielle)

et renvoie à https://fr.wikipedia.org/wiki/Biais_algorithmique

Dans certains états américains, la justice des libertés et de la détention appuie ses décisions de libération anticipée des détenus, sur des algorithmes d'évaluation du risque ; on appelle cela la justice prédictive. En 2016, une enquête de l'ONG ProPublica a mis en évidence que l'algorithme de la société Northpointe (en), bien que ses concepteurs affirmassent ne pas prendre directement en compte la race, avait un biais raciste.

  • Merci (+1) 2
Lien vers le commentaire
Partager sur d’autres sites

  • 3 weeks later...

https://www.lowyinstitute.org/the-interpreter/unique-power-tiktok-s-algorithm (7 octobre 2020)

Les médias sociaux ont été mis en avant pour leur contribution à la dégradation des valeurs démocratiques. Mais TikTok est structurellement différent des autres plateformes de médias sociaux d'une manière qui mérite notre attention. Peu importe qui finit par posséder TikTok aux États-Unis, il est temps d'examiner la façon dont TikTok interagit avec l'information dans les démocraties, et comment nous pourrions adapter la puissance algorithmique de la plate-forme vers un changement social positif, plutôt que la dégradation des normes démocratiques.

Lien vers le commentaire
Partager sur d’autres sites

Le 26/01/2021 à 12:26, cracou a dit :

En fait, et c'est le problème: l'algo n'a PAS de biais raciste, il ne fait que reproduire ce qu'on lui donne à manger.

Exemple: un noir et un blanc sont libéreables. Et on se demande si les risques sont les mêmes.

Sauf que le noir habite un endroit plus pouri, il a une famille détruite, il était plus souvent dans un gang etc etc... et donc l'algo a construit un profil type qui discrimine de facto les nois sans que l'origine ait le moindre impact. Il ne fait que constater qu'une personne pauvre dans un environnement dégradé a plus de risques de récifiver... or qui est dans ce profil? Bien plus les noirs!

Dans le même genre un algo va très souvent suppose que l'infirmière est une femme et le docteur est un homme car ce qu'on lui donne à manger lui permet de valider cette affirmation. si on lui fait manger tous les bouquins de la littérature, le risque d'erreur à postuler les genres est faible. Et l'algo n'est pas misogyne: il ne fait qu'appliquer les règles qu'on lui donne.

 

 

 

 

L'algo a t'il raison ou pas du coup ?

Il discrimine ? Ou non ?

Lien vers le commentaire
Partager sur d’autres sites

Il y a 2 heures, Snapcoke a dit :

L'algo a t'il raison ou pas du coup ?

Il discrimine ? Ou non ?

C'est les humains qui discriminent éventuellement en faisant des choix à partir de ce que l'algorithme a mouliné. 

L'algorithme lui est impersonnel, il ne donne que des probabilités.

Lien vers le commentaire
Partager sur d’autres sites

Oui, ça je comprends, mis si l'algorithme donne moins de liberté au personne de couleurs, mais sans l'avoir pris en compte.

Doit on corrigé l'algorithme, après coup.

Ou doit t'on ignorer la couleur de peau des personnes qui reste en prison, ou doit on rééquilibrer...

C'est un sacré cas de conscience !!!

Lien vers le commentaire
Partager sur d’autres sites

à l’instant, Snapcoke a dit :

Oui, ça je comprends, mis si l'algorithme donne moins de liberté au personne de couleurs, mais sans l'avoir pris en compte.

Doit on corrigé l'algorithme, après coup.

Ou doit t'on ignorer la couleur de peau des personnes qui reste en prison, ou doit on rééquilibrer...

C'est un sacré cas de conscience !!!

La machine fait des corrélations,  elle lie des informations entres elles sans en donner le sens profond. Et encore, uniquement les informations qu'on lui donne !

C'est comme la science en générale: c'est la vérité, mais une vérité très cadré, très limité.

Le problème c'est les humains qui aiment bien surinterpréter, suréagir et qui personnalise la chose ; bref, qui sont biaisés. ça impose donc en effet d'aménager les décisions/choix fait à partir des résultats de l'IA qui ne peuvent pas être exploités tel quel pour ménager les gens/la société.

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

https://aiimpacts.org/relevant-pre-agi-possibilities/ (18 juin 2020)

10. Outils de persuasion

La technologie actuelle permettant d'influencer les croyances et le comportement d'une personne est rudimentaire et faible, par rapport à ce que l'on peut imaginer. Des outils pourraient être développés pour orienter l'opinion d'une personne de manière plus fiable et qui ne soient pas aussi vulnérables au raisonnement de la victime et à la possession de preuves. Ces outils pourraient comprendre :

    Une compréhension avancée de la façon dont les humains réagissent aux stimuli en fonction du contexte, sur la base de quantités massives de données
    Coaching pour l'utilisateur sur la façon de convaincre la cible de quelque chose
    Logiciel qui interagit directement avec d'autres personnes, par exemple par texte ou par courrier électronique

De puissants outils de persuasion pourraient :

    permettre à un groupe en conflit qui en dispose d'attirer rapidement des espions et d'infiltrer ensuite un groupe ennemi
    Permettre aux gouvernements de contrôler leurs populations
    Permettre aux entreprises de contrôler leurs employés
    Conduire à une rupture de l'épistémologie collective (Par exemple, si les opinions des gens sont déconnectées de la réalité à grande échelle, il pourrait devenir difficile pour le discours public et les institutions de soutenir l'élaboration de bonnes politiques. Voir ci-dessous)

16. Détérioration de l'épistémologie collective

La société dispose de mécanismes et de processus qui lui permettent d'identifier de nouveaux problèmes, d'en discuter et d'arriver à la vérité et/ou de coordonner une solution. Ces processus peuvent se détériorer. Voici quelques exemples de ce qui pourrait y contribuer :

    Investissement accru dans la propagande en ligne par des acteurs plus puissants, peut-être aidés par des chatbots, des deepfakes et des outils de persuasion
    Chambres d'écho, bulles filtrantes et polarisation en ligne, peut-être en partie grâce à des algorithmes de recommandation
    L'évolution mémétique en général pourrait s'intensifier, augmentant la diffusion des idées/sujets au détriment de leur vérité/importance
    Des tendances à la polarisation et à la radicalisation politiques pourraient exister et se poursuivre
    Des tendances au dysfonctionnement général des institutions pourraient exister et se poursuivre

Cela pourrait provoquer le chaos dans le monde en général et entraîner de nombreux effets difficiles à prévoir. Cela rendrait probablement moins efficace le marché pour influencer le cours du développement de l'IA (voir la section "Paysage de..." ci-dessous) et présenterait des risques épistémiques pour toute personne essayant de participer efficacement.

Modifié par Wallaby
  • Merci (+1) 1
  • Triste 1
Lien vers le commentaire
Partager sur d’autres sites

  • 2 weeks later...
Il y a 2 heures, Wallaby a dit :

https://youtu.be/NFF_wj5jmiQ

27 octobre 2018

Ce documentaire de 45 minutes apparaît sous plusieurs titres : "Esclaves des algorithmes" ou encore "La dictature des algorithmes" de Martijn Kieft, sur la chaîne publique néerlandaise VPRO.

Les sous-titres Français et Espagnols sont co-financés par l’Union Européenne.

Bien intéressant vu de moi, merci. J'ai beaucoup aimé le discours du beau gosse à partir de 30'.

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Restaurer la mise en forme

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

 Share

  • Statistiques des membres

    5 967
    Total des membres
    1 749
    Maximum en ligne
    Stevendes
    Membre le plus récent
    Stevendes
    Inscription
  • Statistiques des forums

    21,5k
    Total des sujets
    1,7m
    Total des messages
  • Statistiques des blogs

    4
    Total des blogs
    3
    Total des billets
×
×
  • Créer...