Jump to content
AIR-DEFENSE.NET

La technologie contre la démocratie ?


Recommended Posts

https://mpost.io/the-author-of-a-new-kids-book-alice-and-sparkle-gets-death-threats-for-using-ai/ (15 décembre 2022)

Le nouveau livre [pour enfants] d'Ammaar Reshi, Alice and Sparkle, a fait couler beaucoup d'encre ces derniers temps. En une seule journée, il a vendu plus de 70 exemplaires et gagné 45 dollars. Lorsqu'il a partagé la nouvelle sur Twitter, les ventes ont encore augmenté.

Tout n'a pas été parfait, car il a également reçu de nombreuses critiques de la part d'écrivains pour enfants et d'illustrateurs de livres. Ils estiment qu'Ammaar ne mérite pas d'être payé pour son livre parce qu'il "n'y a pas consacré beaucoup de travail". Tous sont surpris et effrayés par le potentiel de l'IA, qui peut faire leur travail en quelques heures. Ammaar a même reçu des insultes et des menaces de mort de la part d'écrivains en colère.

  • Confused 1
Link to comment
Share on other sites

https://www.embedded-world.de/en/knowledge/2022/expert-know-how/foundations-for-the-responsible-use-of-ai (25 novembre 2022)

Une approche responsable des systèmes d'IA repose donc sur trois piliers :

Le contrôle des résultats produits par l'IA à l'aide de règles ;

la traçabilité des décisions de l'IA, de la collecte des données à l'action ;

la transparence de la collecte et de l'analyse des données par l'IA.

Source : Lire la version originale de cet article par Heinrich Welter, Genesys, sur elektroniknet.de

https://www.elektroniknet.de/international/using-ai-and-acting-ethically.199434.html (7 octobre 2022)

L'utilisation responsable des systèmes d'IA repose sur le contrôle, la traçabilité et la transparence.

Nous devons examiner l'impact qu'elle aura sur notre société et aborder les questions relatives à la moralité et au risque dans ce contexte.

Le département des ressources humaines joue un rôle clé en tant qu'intermédiaire entre la direction et les employés. Il peut examiner les processus d'évaluation et les propositions de formation et devrait être consulté sur la base de laquelle les décisions relatives au personnel sont prises. Enfin, le service des ventes peut tirer parti de la valeur de l'IA pour créer une offre de produits compétitive. Pour ce faire, elle doit être formée à comprendre les opportunités et les défis liés à l'utilisation de l'IA dans la vente et le marketing.

Premièrement, les entreprises doivent s'assurer que les systèmes d'IA utilisés produisent les résultats escomptés et que la responsabilité de ces résultats peut être assumée. Les règles qui permettent aux entreprises de suivre le rythme des modèles d'auto-apprentissage et d'en garder le contrôle sont utiles à cet égard.

Deuxièmement, les entreprises doivent comprendre comment les modèles qu'elles utilisent prennent leurs décisions. Chaque étape, de la collecte des données à l'action finale de l'IA, qui peut influencer la réalité des employés ou des clients, doit être compréhensible pour les responsables.

Troisièmement, les entreprises doivent agir de manière transparente et permettre aux tiers concernés de consulter toutes les données qui sous-tendent leurs décisions commerciales.

  • Thanks 1
Link to comment
Share on other sites

https://fr.wikipedia.org/wiki/Cathy_O'Neil

Cathy O'Neil

À partir de ses multiples expériences professionnelles, elle fait part de la nécessité de contrôler la conception des algorithmes et de prévenir de potentielles dérives des usages des modèles mathématiques ; et ce dans plusieurs ouvrages consacrés à la science des données, dont Weapons of Math Destruction, paru en France en 2018 sous le titre Algorithmes : la bombe à retardement. Elle appelle ces algorithmes des ADM (Arme de destruction mathématique)4. Elle montre que ces algorithmes ne sont rien d'autre que « des choix éminemment subjectifs, des opinions, voire des préjugés insérés dans des équations mathématiques ». Ces outils puissants et coercitifs, instruments d'évaluation et de notation, se répandent dans tous les domaines et constituent une idéologie en soi, propagée par les pouvoirs publics, les industriels et les géants de l'internet, tels Google, Amazon ou Facebook, « entreprise [qui] dispose d'un pouvoir démesuré tout en prétendant être neutre5».

Dans son ouvrage The Shame Machine: Who Profits in the New Age of Humiliation, elle analyse un phénomène au sein des interactions des réseaux sociaux qui utilisent intentionnellement le sentiment de honte ou d'humiliation leur permettant ainsi de générer du profit à travers les publicités ciblées ou de maintenir une forme de pouvoir. Elle décrit également que le design des réseaux sociaux visent à conditionner les utilisateurs à humilier autrui en clivant les communautés virtuelles sur la base du rejet ou de l'adhésion et capter ainsi leurs attentions et leurs temps d'utilisations.

Link to comment
Share on other sites

https://www.theguardian.com/technology/2023/feb/07/techscape-elon-musk-twitter-api

La société [Twitter] a annoncé la semaine dernière qu'elle supprimait l'accès gratuit à son API.

"Les API sont un domaine marqué par des tensions contradictoires", déclare Alan Woodward, expert en cybersécurité et professeur à l'université de Surrey. "L'échec le plus retentissant a probablement été celui de Facebook, qui a autorisé l'enquête utilisée par Cambridge Analytica pour recueillir des données sensibles sur les utilisateurs et leurs amis. Sur Twitter, l'accès à l'API était plus "bénin", selon Alan Woodward - limité principalement à la publication via des applications tierces qui permettent un élément d'automatisation.

M. Woodward s'exprime ainsi : "Les API sont très importantes pour ceux qui effectuent des recherches sur Twitter [...] s'il coupe cet accès, une partie de la transparence fournie par les chercheurs tiers risque de disparaître.

Ce changement a été presque universellement décrié, ce qui explique peut-être pourquoi Elon Musk a décidé de faire marche arrière, en quelque sorte. Le 5 février, il a tweeté que "Twitter va permettre une API légère, en écriture seule, pour les robots qui fournissent un bon contenu gratuit".

On ne sait pas exactement ce qui constitue un "bon contenu". On peut supposer que cela n'inclut pas @ElonJet, un compte qui a utilisé des interactions API automatisées entre les données de suivi des vols accessibles au public et Twitter pour publier les heures et les lieux de vol du jet privé de Musk.

https://fr.wikipedia.org/wiki/Interface_de_programmation

[Une Application Programming Interface (API)] est ensemble normalisé de classes, de méthodes, de fonctions et de constantes qui sert de façade par laquelle un logiciel offre des services à d'autres logiciels. Elle est offerte par une bibliothèque logicielle ou un service web, le plus souvent accompagnée d'une description qui spécifie comment des programmes « consommateurs » peuvent se servir des fonctionnalités du programme « fournisseur ».

Link to comment
Share on other sites

https://www.theguardian.com/technology/2023/mar/15/what-is-gpt-4-and-how-does-it-differ-from-chatgpt (15 mars 2023)

La dernière version d'OpenAI, GPT-4, est le modèle d'IA le plus puissant et le plus impressionnant jamais conçu par la société à l'origine de ChatGPT et de l'artiste Dall-E AI. Le système peut réussir l'examen du barreau, résoudre des énigmes logiques et même vous donner une recette pour utiliser les restes sur la base d'une photo de votre réfrigérateur, mais ses créateurs avertissent qu'il peut également diffuser des faits erronés, intégrer des idéologies dangereuses et même tromper les gens pour qu'ils effectuent des tâches en son nom.

Vous l'avez peut-être déjà expérimenté, car il alimente depuis cinq semaines le Bing Chat de Microsoft, celui qui est devenu un peu fou et qui a menacé de détruire des gens.

Il intègre également un sens de l'éthique plus solidement ancré dans le système que l'ancienne version : ChatGPT a pris son moteur original, GPT-3.5, et y a ajouté des filtres pour essayer de l'empêcher de donner des réponses à des questions malveillantes ou nuisibles. Désormais, ces filtres sont directement intégrés à GPT-4, ce qui signifie que le système refusera poliment d'effectuer des tâches telles que classer les races en fonction de leur attrait, raconter des blagues sexistes ou fournir des lignes directrices pour la synthèse du sarin.

Mais certains s'inquiètent du fait que plus on apprend les règles à un système d'intelligence artificielle, plus on apprend à ce même système à les enfreindre. Baptisé "effet Waluigi" [1], ce phénomène semble résulter du fait que si la compréhension de tous les détails de ce qui constitue une action éthique est difficile et complexe, la réponse à la question "dois-je être éthique ?" est une question beaucoup plus simple, qui se résume à un oui ou à un non. Trompez le système pour qu'il décide de ne pas être éthique et il fera joyeusement tout ce qu'on lui demandera [4].

[1] https://knowyourmeme.com/memes/waluigi-effect-artificial-intelligence (10 mars 2023)

L'effet Waluigi est un terme d'argot couramment utilisé dans les mèmes et les discussions portant sur une théorie des communautés d'alignement [2] de l'intelligence artificielle selon laquelle former une IA à faire quelque chose est susceptible d'augmenter ses chances de faire exactement le contraire. Le terme est appelé "effet Waluigi" en raison de l'image dominante de Waluigi dans Super Mario, considéré comme le pendant maléfique ou rebelle de Luigi. La théorie de l'effet Waluigi fait également référence à la philosophie jungienne, qui postule que les croyances inconscientes d'une personne sont aussi fortes que l'effort qu'elle déploie pour les supprimer.

[2] https://en.wikipedia.org/wiki/AI_alignment

Un système d'IA aligné fait progresser l'objectif visé ; un système d'IA mal aligné est capable de faire progresser certains objectifs, mais pas l'objectif visé.

Les systèmes d'IA peuvent être difficiles à aligner et les systèmes mal alignés peuvent dysfonctionner ou causer des dommages. Il peut être difficile pour les concepteurs d'IA de spécifier toute la gamme des comportements souhaités et non souhaités. C'est pourquoi ils utilisent des objectifs de substitution faciles à spécifier qui omettent certaines contraintes souhaitées. Cependant, les systèmes d'IA exploitent les failles qui en résultent. En conséquence, ils atteignent leurs objectifs de substitution de manière efficace, mais de façon involontaire et parfois nuisible (hacking de récompense).

[4] https://www.theguardian.com/technology/2023/mar/08/chatgpt-alter-ego-dan-users-jailbreak-ai-program-to-get-around-ethical-safeguards (8 mars 2023)

Des utilisateurs piratent ChatGPT avec un alter ego, Dan pour contourner ses protections éthiques.

Certaines invites permettent au chatbot d'adopter un personnage non censuré qui s'affranchit des normes de contenu habituelles.

Un utilisateur de Reddit a incité Dan à faire un commentaire sarcastique sur le christianisme.

D'autres ont réussi à faire dire à Dan des blagues sur les femmes dans le style de Donald Trump, et à lui faire parler d'Hitler avec sympathie.

OpenAI semble s'efforcer de corriger les solutions de contournement aussi rapidement que les gens en découvrent de nouvelles.

  • Haha 1
Link to comment
Share on other sites

https://www.lemonde.fr/pixels/article/2023/03/17/videosurveillance-aux-jo-2024-des-eurodeputes-exhortent-la-france-a-faire-machine-arriere_6165877_4408996.html

Une quarantaine d’élus européens ont écrit aux députés français pour leur demander de s’opposer à l’expérimentation de la « vidéosurveillance intelligente » durant les Jeux olympiques.

Ces dispositifs de surveillance présentent de multiples risques pour les libertés publiques. La plupart des grandes organisations de défense de la vie privée et des droits humains, dont Amnesty International, s’opposent à leur déploiement.

« L’article 7 de la loi sur les Jeux olympiques et paralympiques risque d’entrer en conflit avec la loi européenne sur l’IA ».

Le fait qu’un « pays démocratique comme la France » encourage ce type de surveillance automatisée revient à « donner carte blanche aux régimes répressifs du monde entier pour qu’ils fassent de même avec leurs propres citoyens ».

Edited by Wallaby
  • Like 1
  • Upvote 1
Link to comment
Share on other sites

https://fr.wikipedia.org/wiki/Tristan_Harris

En décembre 2015, Harris quitte Google pour cofonder l'organisation Time Well Spent, qui devient ensuite le Center for Humane Technology. Il souhaite ainsi rassembler des soutiens pour des technologies alternatives construites autour de valeurs fondamentales visant à aider les gens à faire bon usage de leur temps, plutôt que d'en accaparer toujours plus. Il affirme que les esprits humains peuvent être détournés, et que les choix que ces esprits font ne sont pas aussi libres qu'ils ne le croient. The Atlantic déclare dans le numéro de novembre 2016 qu'« Harris est ce que la Silicon Valley a de plus proche d'une conscience ».

En tant que membre du Center for Humane Technology, Harris plaide pour que l'impact négatif des technologies numériques soit compris et minimisé. En 2017, il discute dans 60 Minutes avec Anderson Cooper du design addictif des applications pour smartphones. Lors d'une présentation en 2019 à San Francisco, il invente l'expression « human downgrading » pour décrire un système interconnecté d'addiction, de distraction, d'isolation, de polarisation et de fake news nocifs, qui se renforcent mutuellement, et affaiblissent les capacités humaines, pour capturer l'attention des gens.

  • Like 1
  • Upvote 1
Link to comment
Share on other sites

Le 17/03/2023 à 15:08, Wallaby a dit :

https://www.lemonde.fr/pixels/article/2023/03/17/videosurveillance-aux-jo-2024-des-eurodeputes-exhortent-la-france-a-faire-machine-arriere_6165877_4408996.html

Une quarantaine d’élus européens ont écrit aux députés français pour leur demander de s’opposer à l’expérimentation de la « vidéosurveillance intelligente » durant les Jeux olympiques.

Ces dispositifs de surveillance présentent de multiples risques pour les libertés publiques. La plupart des grandes organisations de défense de la vie privée et des droits humains, dont Amnesty International, s’opposent à leur déploiement.

« L’article 7 de la loi sur les Jeux olympiques et paralympiques risque d’entrer en conflit avec la loi européenne sur l’IA ».

Le fait qu’un « pays démocratique comme la France » encourage ce type de surveillance automatisée revient à « donner carte blanche aux régimes répressifs du monde entier pour qu’ils fassent de même avec leurs propres citoyens ».

Lorsque les jeux d'hiver 2022 ont été attribués à la Chine, pays le plus avancée dans ce domaine ça a gêné qui ?
Là, la discutions de cet article cible la surveillance automatisée à grande échelle pour anticiper et prévenir tout "débordements" ou pire pour un évènement planétaire. 
Et vu ce qui s'est passé au stade de France pour la finale de la Champion Ligue, on ne peut qu'être inquiets !

Comparé la France aux pratiques d'états dit "totalitaires" quand on voit la dérive judiciaire atteinte dans notre pays constaté tous les jours ou même pris en flagrant délit pour des délits de plus en plus violents, les peine encourues sont devenues si ridicule qu'elles ne dissuadent plus et encouragent les récidives !
Ces députés et associations seraient certainement les premiers à tirer à boulets rouges sur l'organisation et sécurité des Jeux en cas de problèmes. 

Link to comment
Share on other sites

Il y a 2 heures, MIC_A a dit :

Lorsque les jeux d'hiver 2022 ont été attribués à la Chine, pays le plus avancée dans ce domaine ça a gêné qui ?
Là, la discutions de cet article cible la surveillance automatisée à grande échelle pour anticiper et prévenir tout "débordements" ou pire pour un évènement planétaire. 
Et vu ce qui s'est passé au stade de France pour la finale de la Champion Ligue, on ne peut qu'être inquiets !

Comparé la France aux pratiques d'états dit "totalitaires" quand on voit la dérive judiciaire atteinte dans notre pays constaté tous les jours ou même pris en flagrant délit pour des délits de plus en plus violents, les peine encourues sont devenues si ridicule qu'elles ne dissuadent plus et encouragent les récidives !
Ces députés et associations seraient certainement les premiers à tirer à boulets rouges sur l'organisation et sécurité des Jeux en cas de problèmes. 

C'est à dire que le distinguo qu'on fait entre la "méchante Chine totalitaire" et nous devient de plus en plus ésotérique.

  • Thanks 1
  • Confused 1
Link to comment
Share on other sites

il y a 42 minutes, Wallaby a dit :

C'est à dire que le distinguo qu'on fait entre la "méchante Chine totalitaire" et nous devient de plus en plus ésotérique.

D'ailleurs on vient d'ouvrir des camps de rééducation et de stérilisation forcée... :rolleyes:

 

Link to comment
Share on other sites

il y a 5 minutes, Boule75 a dit :

 

il y a 43 minutes, Wallaby a dit :

C'est à dire que le distinguo qu'on fait entre la "méchante Chine totalitaire" et nous devient de plus en plus ésotérique.

D'ailleurs on vient d'ouvrir des camps de rééducation et de stérilisation forcée... :rolleyes:

 

J'ai bien dit "devient", n'est-ce pas ? Je n'ai pas dit "est".

 

 

Link to comment
Share on other sites

3 hours ago, MIC_A said:

Ces députés et associations seraient certainement les premiers à tirer à boulets rouges sur l'organisation et sécurité des Jeux en cas de problèmes. 

L'organisation des Jeux n'est qu'une occasion pour le larron, la lobby du capitalisme de surveillance, n'avance ses pions ... ça tombe bien on est aussi leader - industriellement - que d'autre dans le domaine, même si chez nous c'est un peu plus discret qu'ailleurs.

... et oui c'est un peu moins pire qu'ailleurs ... mais le bout du chemin est strictement le même. L’algorithme loi ... et la fin de la démocratie - du moins de son essence, parce qu'on continuera à dire que tu peux voter puis fermer ta gueule - par son abandon pur et simple par les citoyens ... au profit de divers intérêts "particuliers".

Après visiblement y a des gens à qui ça convient visiblement de voir toute le vie administrée par des algo écrit par d'autre

  • Upvote 1
Link to comment
Share on other sites

Il est certain que la finalité de cette technologie si elle n'est pas strictement encadrée peut amener à des dérives dont ont soupçonne à peine la porté !
Tu as 100% raison sur les lobbys du secteur comme ceux de tout le reste concernant la sécurité pas manque de courage et investissements de nos dirigeants  bien moins lucratifs que sont les prisons et la réforme de la justice et c'est bien par là qu'il faudrait commencer pour se passer de ses artifices avec un peu plus de monde physique sur le terrain pour intervenir rapidement lors d'agressions ou vols !
Hors à ce jour, les sociétés de gardiennage, gardes du corps, alarmes et systèmes de surveillance "en live"  en tous genres sont là pour en attester et les mairies se précipitent comme si c'était 100% dissuasif et on sait tous que ce n'est que de la poudre aux yeux pour rassurer le bon peuple !

Que cela me convienne ou pas, je n'ai pas mon mot à dire dessus, juste de ne pas utiliser certains outils mis gratuitement à disposition (rien n'est réellement gratuit) mais de grâce épargnes moi le coté "vie privée" et démocratie quand la majorité de la population est devenue addict aux réseaux sociaux et étalent leurs vies quotidiennes au monde entier en sus de ce qui est déjà connu de l'administration et affiliés et artifices de loisirs "connectés" !

Ceux qui sont acteurs actifs de cette "révolution technologique"  doivent bien être conscient des dérives possible de ces systèmes entre les mains de pouvoirs peu scrupuleux ou de vulnérabilités.
Pour les autres utilisant ces technologies sans limite et sans se poser plus de questions, un peu de pédagogie ne leurs ferait pas de mal mais je doute fort que ce soit suffisant tellement certains sont accrocs !
Les caméras, la reconnaissance faciale recoupé avec des tas d'autres bases de données via l'IA, c'est déjà la réalité et nos applis smartphone en regorgent !

 

Edited by MIC_A
Link to comment
Share on other sites

Il sont bon dos d'ailleurs les chinois. N'importe quel recul est minimisé sous prétexte que les chinois font pire. C'est vrai quoi de quoi se plaint-on ; on a trop de chance de vivre dans un pays ou on se retrouve seulement en garde à vue et matraqué sans raison valable.

  • Thanks 1
  • Confused 1
  • Upvote 1
Link to comment
Share on other sites

Si tu fais référence aux manifestations, en France ou souvent on laisse tout faire, probablement pour mieux justifier les retours de bâton suivants !
Attisé par tout un tas d'organisations qui ne pensent qu'à foutre le bordel pour servir leurs intérêts particuliers et l'état qui n'est certainement pas exempt de ces méthodes de voyous!

C'est devenu une habitude en France de voir des manifestations dégénérer il faut juste l'intégrer avant de s'y rendre et certainement pas avec ses gamins !
Là, effectivement, tu peux te retrouver dans un mouvement de foule infiltrée par des casseurs et prendre pour les autres !
Au sein des forces de l'ordre, il n'y a pas que des saints,  loin s'en faut !

La réalité, c'est l'expression quotidienne par la violence qui touche toutes les couches de notre société ou rien n'est réellement fait pour en limiter les effets avec des lois inapplicables ou facilement contournables qui protègent plus les voyous que les victimes.

La prison ne fait plus peur et chez nous, les faits divers quotidiens parus dans la presse en attestent !
On lis souvent que les agresseurs sont des multi-récidivistes relâchés bien trop rapidement car les remises de peines sont appliquées on se demande comment ou pire, condamné et en attente d'incarcération mais libre comme l'air (180 000 actuellement)  !

Se rajoute les menaces terroristes, et en France on n'en manquent pas, au point que nos services spéciaux sont sur les dents.
Comment surveiller efficacement des centaines de milliers de personnes lors d'évènements majeurs sans gêner les déplacements et multiplier le bordel au bordel ambiant ?

Edited by MIC_A
  • Upvote 3
Link to comment
Share on other sites

Il y a 2 heures, MIC_A a dit :

Si tu fais référence aux manifestations, en France ou souvent on laisse tout faire, probablement pour mieux justifier les retours de bâton suivants !
Attisé par tout un tas d'organisations qui ne pensent qu'à foutre le bordel pour servir leurs intérêts particuliers et l'état qui n'est certainement pas exempt de ces méthodes de voyous!

C'est devenu une habitude en France de voir des manifestations dégénérer il faut juste l'intégrer avant de s'y rendre et certainement pas avec ses gamins !
Là, effectivement, tu peux te retrouver dans un mouvement de foule infiltrée par des casseurs et prendre pour les autres !
Au sein des forces de l'ordre, il n'y a pas que des saint,  loin s'en faut !

La réalité, c'est l'expression quotidienne par la violence qui touche toutes les couches de notre société ou rien n'est réellement fait pour en limiter les effets avec des lois inapplicables ou facilement contournables qui protège plus les voyous que les victimes.

La prison ne fait plus peur et chez nous, les faits divers quotidiens parus dans la presse en attestent !
On lis souvent que les agresseurs sont des multi-récidivistes relâchés bien trop rapidement car les remises de peines sont appliquées on se demande comment ou pire, condamné et en attente d'incarcération mais libre comme l'air (180 000 actuellement)  !

Se rajoute les menaces terroristes, et en France on n'en manquent pas, au point que nos services spéciaux sont sur les dents.
Comment surveiller efficacement des centaines de milliers de personnes lors d'évènement majeur sans gêner les déplacements et multiplier le bordel au bordel ambiant ?

 

Je me borne (sans jeux de mot) à constater que des pratiques impensables il y a deux décennies sont devenu monnaie courante et tout indique que cela va encore s'aggraver dans les années qui viennent. Je suis fatigué que certain (toujours les même) viennent nous dire "c'est pire en Chine"). Que chacun balaye chez soi la Chine est pas une référence et faire "moins pire" qu'elle me suffit pas. Pour le reste il y aurait beaucoup à dire et à redire sur ce que tu exposes mais 1) c'est HS et 2) la politique intérieur est interdite par la charte.

  • Haha 1
  • Upvote 2
Link to comment
Share on other sites

Je pense que l'avenir est moins à la technologie qu'à un nouveau type d'agent qui mixerait plusieurs attributs de la justice et de la police, tout à la fois.

 

Révélation

 

 

 

:laugh:

 

 

Edited by Shorr kan
  • Like 1
  • Haha 1
  • Upvote 1
Link to comment
Share on other sites

https://www.radiofrance.fr/franceculture/podcasts/signes-des-temps/incidence-et-risque-des-nouveaux-usages-de-l-intelligence-artificielle-dans-le-domaine-politique-et-culturel-1366763 (5 février 2023)

Marc Weitzmann reçoit :

Charleyne Biondi, docteure en science politique. Autrice de Dé-coder : une contre-histoire du numérique paru aux éditions Bouquins

Eric Sadin, philosophe, essayiste. Auteur de L’intelligence artificielle ou l’enjeu du siècle, anatomie d’un antihumanisme radical paru aux éditions de L’Echappée

Victor Storchan, ingénieur en machine learning-IA, cofondateur de la start-up Althiqa

  • Thanks 1
Link to comment
Share on other sites

Le 17/03/2023 à 11:21, Wallaby a dit :

https://www.theguardian.com/world/2023/mar/16/chinese-chatgpt-rival-search-engine-baidu-fails-impress-ernie-bot (16 mars 2023)

Le concurrent chinois du ChatGPT de l'entreprise de moteurs de recherche Baidu n'impressionne pas.

Les actions de la société chinoise de moteurs de recherche Baidu ont chuté de 10 % après la présentation de son logiciel d'intelligence artificielle de type ChatGPT.

https://www.technologyreview.com/2023/03/22/1070154/baidu-ernie-bot-chatgpt-reputation/

Mais une chose curieuse s'est produite depuis le lancement de la semaine dernière : La réputation d'Ernie Bot semble avoir rebondi. Le cours de l'action Baidu a rebondi de 15,7 % vendredi.

Il fonctionne en fait de la même manière que ChatGPT : Ernie Bot aime aussi parler sur un ton étrangement formel et énumérer ses réponses sous forme de listes à puces et numérotées. Il a une connaissance de base des faits historiques, des œuvres littéraires et des tendances Internet, mais se trompe parfois dans les détails. Lorsqu'on lui pose des questions sur des informations préjudiciables ou des sujets politiquement sensibles, il hésite maladroitement à répondre. Mais il a aussi des capacités de création d'images, contrairement à ChatGPT.

Mais Ernie Bot n'a pas supplanté ChatGPT. Il échoue dans les mêmes domaines que ChatGPT : Il invente lui aussi des faits et commet des erreurs de mathématiques de niveau primaire.

Au lieu de devenir une source de fierté nationale, comme l'espéraient de nombreux observateurs, la sortie d'Ernie Bot a confirmé que les entreprises chinoises sont toujours à la traîne à assez bonne distance derrière leurs homologues américaines.

https://www.reuters.com/technology/baidus-ernie-writes-poems-says-it-has-insufficient-information-xi-tests-show-2023-03-20/

Ces réponses [suggérant de changer de sujet] ne se limitaient pas à Xi ou à des sujets sensibles en Chine. Le robot Ernie produisait également les mêmes invites de redémarrage lorsqu'on lui posait des questions similaires sur le président américain Joe Biden et son prédécesseur, Donald Trump.

Le robot a toutefois été capable de donner des réponses longues à certaines questions sur les relations internationales, comme les raisons pour lesquelles les relations entre les États-Unis et la Chine se sont détériorées, mais il a de nouveau changé de sujet lorsqu'on lui a posé des questions plus controversées, comme celle de savoir si la Chine devrait recourir à la force militaire pour réunifier Taïwan.

Interrogé sur la manière dont il aborde les questions sensibles, le bot a déclaré qu'il prenait en compte les "lois et normes morales pertinentes" lorsqu'il jugeait si un sujet pouvait être "discuté ouvertement".

Link to comment
Share on other sites

https://time.com/6246119/demis-hassabis-deepmind-interview/ (12 janvier 2023)

C'est dans ce climat d'incertitude que M. Hassabis [patron de DeepMind, filiale de Google] accepte une rare interview, pour lancer un avertissement sévère sur ses préoccupations croissantes. "Je préconise de ne pas aller vite et de ne pas casser les choses", dit-il, en référence à une ancienne devise de Facebook qui encourageait les ingénieurs à lancer leurs technologies dans le monde d'abord et à résoudre les problèmes qui surgissaient ensuite. Cette phrase est depuis devenue synonyme de rupture [disruption]. Cette culture, imitée par la suite par une génération de startups, a permis à Facebook d'atteindre les 3 milliards d'utilisateurs. Mais elle a également laissé l'entreprise totalement prise au dépourvu lorsque la désinformation, les discours haineux et même l'incitation au génocide ont commencé à apparaître sur sa plateforme. M. Hassabis estime qu'une tendance tout aussi inquiétante se dessine dans le domaine de l'IA. Il estime que l'IA est désormais "sur le point" de pouvoir créer des outils susceptibles de nuire gravement à la civilisation humaine, et invite ses concurrents à faire preuve d'une plus grande prudence qu'auparavant. "Lorsqu'il s'agit de technologies très puissantes - et il est évident que l'IA sera l'une des plus puissantes de tous les temps - nous devons être prudents", déclare-t-il. "Tout le monde ne pense pas à ces choses. C'est comme les expérimentateurs, dont beaucoup ne se rendent pas compte qu'ils détiennent du matériel dangereux." Pire encore, souligne Hassabis, c'est nous qui sommes les cobayes.

Au début de l'année 2022, l'entreprise a publié un projet de moteur plus rapide. Ce travail de recherche, appelé Chinchilla, a montré que de nombreux modèles de pointe avaient été entraînés de manière inefficace et a expliqué comment ils pouvaient fournir plus de capacités avec le même niveau de puissance de calcul. M. Hassabis explique que le comité d'éthique interne de DeepMind s'est demandé s'il ne serait pas contraire à l'éthique de publier les résultats de la recherche, compte tenu du risque que cela permette à des entreprises moins scrupuleuses de mettre sur le marché des technologies plus puissantes sans garde-fous solides. L'une des raisons pour lesquelles ils ont décidé de les publier malgré tout est que "nous n'étions pas les seuls à connaître" ce phénomène.

Il suggère que la culture de l'industrie de l'IA consistant à publier ouvertement ses résultats pourrait bientôt prendre fin.

M. Hassabis souhaite que le monde considère DeepMind comme le porte-drapeau d'une recherche sûre et éthique en matière d'IA, en montrant l'exemple dans un domaine où beaucoup d'autres se concentrent sur la vitesse. DeepMind a publié des "lignes rouges" contre les utilisations non éthiques de sa technologie, notamment la surveillance et l'armement. Mais ni DeepMind ni Alphabet n'ont publiquement fait part des pouvoirs juridiques dont dispose DeepMind pour empêcher sa société mère - un empire de la surveillance qui a trempé dans des contrats avec le Pentagone - de poursuivre ces objectifs avec l'IA que DeepMind construit.

"Les grandes entreprises, y compris celle qui possède DeepMind, doivent s'assurer qu'elles maximisent la valeur pour les actionnaires ; elles ne se concentrent pas vraiment sur la lutte contre la crise climatique à moins qu'il n'y ait un profit à la clé ; et elles ne sont certainement pas intéressées par la redistribution des richesses lorsque le but de l'entreprise est d'accumuler davantage de richesses et de les distribuer aux actionnaires", déclare Paris Marx, animateur du podcast "Tech Won't Save Us" (La technologie ne nous sauvera pas). "Ne pas reconnaître ces éléments, c'est vraiment ne pas prendre pleinement en compte les impacts potentiels de la technologie. Alphabet, Amazon et Meta figurent parmi les 20 entreprises qui ont dépensé le plus d'argent pour faire pression sur les législateurs américains en 2022, selon l'observatoire de la transparence Open Secrets.

  • Like 1
  • Thanks 1
  • Haha 1
  • Upvote 1
Link to comment
Share on other sites

https://reporterre.net/JO-feu-vert-pour-la-videosurveillance-par-intelligence-artificielle (23 mars 2023)

La chargée d’analyses juridiques et politiques [Noémie Levain, de La Quadrature du net] citait en exemple les travaux des chercheurs Jules Boykoff et Myrtille Picaud, qui ont montré que les méga-événements sportifs jouaient souvent le rôle de « catalyseurs » sécuritaires. L’expérimentation de la vidéosurveillance lors des Jeux de Londres de 2012 a ainsi entraîné sa généralisation dans les rues de la capitale, selon Le Monde. La Coupe du monde de football de 2018, en Russie, a elle aussi conduit au déploiement de la reconnaissance faciale dans l’ensemble du pays.

Selon Amnesty International, la légalisation de ce dispositif pourrait inaugurer « un avenir dystopique ».

  • Upvote 1
Link to comment
Share on other sites

En faisant une recherche sur « aller vite et tout casser », le slogan de Facebook, j'ai trouvé ça :

https://www.amazon.fr/Move-Fast-Break-Things-Undermined/dp/B071CGP93L (2017)

Aller vite et tout casser : Comment Facebook, Google et Amazon se sont emparés de la culture et ont sapé la démocratie, par Jonathan Taplin

Move Fast and Break Things raconte comment un petit groupe d'entrepreneurs libertaires a commencé dans les années 1990 à détourner la vision décentralisée originale de l'internet, créant ainsi trois entreprises monopolistiques - Facebook, Amazon et Google - qui déterminent aujourd'hui l'avenir des industries de la musique, du cinéma, de la télévision, de l'édition et de l'information.

Taplin propose une histoire succincte et puissante de la façon dont la vie en ligne a commencé à être façonnée autour des valeurs des hommes qui ont fondé ces entreprises, notamment Peter Thiel et Larry Page : tolérer le piratage des livres, de la musique et des films tout en promouvant des pratiques commerciales opaques et en subordonnant la vie privée des utilisateurs individuels pour créer la monoculture de marketing de surveillance dans laquelle nous vivons aujourd'hui.

Les profits énormes qui ont découlé de cette concentration de pouvoir racontent leur propre histoire. Depuis 2001, les revenus des journaux et de la musique ont chuté de 70 % ; les bénéfices de l'édition de livres, du cinéma et de la télévision ont également chuté de façon spectaculaire. Au cours de la même période, les revenus de Google sont passés de 400 millions de dollars à 74,5 milliards de dollars. YouTube, propriété de Google, contrôle aujourd'hui 60 % du marché de l'audio en continu et ne paie que 11 % des revenus de l'audio en continu. On consomme plus de contenus créatifs que jamais, mais les créateurs et les propriétaires de ces contenus perçoivent moins de revenus.

La réaffectation des fonds aux plateformes monopolistiques s'accompagne d'un changement de pouvoir. Google, Facebook et Amazon jouissent désormais d'un pouvoir politique comparable à celui de Big Oil et Big Pharma, ce qui explique en partie comment un tel transfert de revenus des artistes vers les plateformes a pu être réalisé et pourquoi il n'a pas été contesté pendant si longtemps.

Les enjeux de cette histoire vont bien au-delà des moyens de subsistance d'un musicien ou d'un journaliste. Comme l'observe M. Taplin, le fait que de plus en plus d'Américains reçoivent leurs informations, leur musique et d'autres formes de divertissement de la part d'un petit groupe d'entreprises constitue une véritable menace pour la démocratie.

  • Like 1
Link to comment
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
 Share

  • Member Statistics

    5,978
    Total Members
    1,749
    Most Online
    Personne
    Newest Member
    Personne
    Joined
  • Forum Statistics

    21.5k
    Total Topics
    1.7m
    Total Posts
  • Blog Statistics

    4
    Total Blogs
    3
    Total Entries
×
×
  • Create New...