Aller au contenu
AIR-DEFENSE.NET

La technologie contre la démocratie ?


Messages recommandés

il y a 57 minutes, Wallaby a dit :

https://edition.cnn.com/2023/05/30/media/artificial-intelligence-warning-reliable-sources/index.html (30 mai 2023)

Mardi, des centaines d'éminents scientifiques, chercheurs et autres spécialistes de l'IA, dont Sam Altman, directeur général d'OpenAI, et Demis Hassabis, directeur général de Google DeepMind, ont de nouveau exprimé leur profonde inquiétude pour l'avenir de l'humanité en signant une lettre ouverte d'une phrase destinée au public et visant à exposer en termes clairs les risques liés à l'évolution rapide de la technologie.

"L'atténuation du risque d'extinction lié à l'IA devrait être une priorité mondiale au même titre que d'autres risques sociétaux tels que les pandémies et les guerres nucléaires", indique la lettre, signée par de nombreuses personnalités parmi les plus respectées de l'industrie.

https://edition.cnn.com/2023/06/09/tech/korea-altman-chatgpt-ai-regulation-intl-hnk/index.html (9 juin 2023)

Sam Altman, PDG du fabricant de ChatGPT OpenAI, a profité d'un voyage très médiatisé en Corée du Sud vendredi pour appeler à une réglementation internationale coordonnée de l'intelligence artificielle générative, la technologie sur laquelle repose son célèbre chatbot.

"À mesure que ces systèmes deviennent très, très puissants, ils doivent faire l'objet d'une attention particulière et ont un impact mondial. Cela nécessite donc une coopération mondiale", a déclaré M. Altman lors d'un événement à Séoul, avant sa rencontre avec le président sud-coréen Yoon Suk Yeol.

L'étape de M. Altman à Séoul fait suite à une visite en Inde, où il a rencontré le Premier ministre Narendra Modi jeudi et discuté de "la manière dont le pays peut bénéficier" de l'IA, a tweeté l'exécutif.

C'est un peu comme si les membres de manhattan, les nazis, les japonais et les soviétiques s'étaient mis a envoyer des lettres ouvertes au monde entier sur les dangers des armes nucléaires en pleine ww2... 

Lien vers le commentaire
Partager sur d’autres sites

Il y a 1 heure, Wallaby a dit :

https://edition.cnn.com/2023/05/30/media/artificial-intelligence-warning-reliable-sources/index.html (30 mai 2023)

Mardi, des centaines d'éminents scientifiques, chercheurs et autres spécialistes de l'IA, dont Sam Altman, directeur général d'OpenAI, et Demis Hassabis, directeur général de Google DeepMind, ont de nouveau exprimé leur profonde inquiétude pour l'avenir de l'humanité en signant une lettre ouverte d'une phrase destinée au public et visant à exposer en termes clairs les risques liés à l'évolution rapide de la technologie.

"L'atténuation du risque d'extinction lié à l'IA devrait être une priorité mondiale au même titre que d'autres risques sociétaux tels que les pandémies et les guerres nucléaires", indique la lettre, signée par de nombreuses personnalités parmi les plus respectées de l'industrie.

https://edition.cnn.com/2023/06/09/tech/korea-altman-chatgpt-ai-regulation-intl-hnk/index.html (9 juin 2023)

Sam Altman, PDG du fabricant de ChatGPT OpenAI, a profité d'un voyage très médiatisé en Corée du Sud vendredi pour appeler à une réglementation internationale coordonnée de l'intelligence artificielle générative, la technologie sur laquelle repose son célèbre chatbot.

"À mesure que ces systèmes deviennent très, très puissants, ils doivent faire l'objet d'une attention particulière et ont un impact mondial. Cela nécessite donc une coopération mondiale", a déclaré M. Altman lors d'un événement à Séoul, avant sa rencontre avec le président sud-coréen Yoon Suk Yeol.

L'étape de M. Altman à Séoul fait suite à une visite en Inde, où il a rencontré le Premier ministre Narendra Modi jeudi et discuté de "la manière dont le pays peut bénéficier" de l'IA, a tweeté l'exécutif.

 

 

Altman a compris les erreurs de communications de Zukerberg, Musk et consort, imprégnés de l'autisme habituel propre au techno optimisme de la Sillicon Valley. C'est aussi un homme intelligent qui a aussi compris que pour garder la main il doit devancer les inquiétudes entourant l'IA. céder un peu de pouvoir pour en garder beacoup, en somme.

Il se montre plus royaliste que le roi tout en sachant que dans les faits il y a très peu de chance qu'un effort réglementaire mondiale visant l'IA aboutisse. Mais si cela devait se faire, il  se met en position d'influencer/noyauter le processus, et par là, s'assure que rien de sérieux n'entreverra l'effort de recherche sur l'IA ; la montagne accouchant finalement d'une souris.

Il en fait des tonnes pour paraître responsable et ainsi renforcer sa stature de quasi chef d'état.

Montrer patte blanche est probablement un acte murement réfléchie de fausse humilité. 

En tout cas, de ma planète c'est à ça que ça ressemble...

Modifié par Shorr kan
  • Upvote (+1) 4
Lien vers le commentaire
Partager sur d’autres sites

En fait au départ, OpenAI a été créé par Musk comme une machine de propagande pour stopper Google/Deepmind qui avait de l'avance dans ce domaine, sur le mode "regardez Google, c'est des méchants, ils vont tous nous tuer". Au départ, OpenAI était une gentille association sans but lucratif du type "Human Rights Watch" ou "Reporter sans frontières". C'était une ONG pour donner du poil à gratter à Google.

Donc c'est dans l'ADN d'OpenAI de jouer au "gentil bisounours".

Ensuite, pour des raisons que je n'ai pas étudiées de près, Musk s'est fâché avec Altmann et OpenAI a glissé dans la sphère d'influence de Microsoft, tout en étant très bon sur le plan technologique, rattrapant voire dépassant Google. Et comme on ne fait pas d'omelette sans casser des œufs, que comme ils sont meilleurs que Google, ce serait bête de ne pas en profiter, et que ces joujoux coûtent cher, ils sont passés à un mode lucratif tout en se drapant derrière une structure financière où l'ONG n'a pas complètement disparu et est censé pouvoir garder le pied sur la pédale de frein.

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

https://www.project-syndicate.org/onpoint/the-ai-apocalypse (15 juin 2023)

Une telle surveillance conduit techniquement à une "productivité plus élevée", en ce sens qu'elle renforce la capacité d'une autorité à contraindre les gens à faire ce qu'ils sont censés faire. Pour une entreprise, il s'agit d'exécuter des tâches à un niveau de productivité que la direction considère comme le plus élevé possible. Pour un gouvernement, il s'agit de faire respecter la loi ou de veiller à ce que les personnes au pouvoir se conforment à la loi.

Malheureusement, un millénaire d'expérience [1] a établi qu'une productivité accrue ne conduit pas nécessairement à une amélioration de la prospérité partagée. Aujourd'hui, la surveillance par l'IA permet aux managers autoritaires et aux dirigeants politiques autoritaires d'appliquer leurs règles plus efficacement. Mais si la productivité peut augmenter, la plupart des gens n'en profiteront pas.

De manière plus générale, le cabinet de conseil Gartner estime que la part des grands employeurs utilisant des outils numériques pour suivre leurs travailleurs a doublé depuis le début de la pandémie de COVID-19, pour atteindre 60 %, et devrait atteindre 70 % au cours des trois prochaines années.

[1] https://shapingwork.mit.edu/about-power-and-progress-our-thousand-year-struggle-over-technology-and-prosperity/

La richesse générée par les améliorations technologiques de l'agriculture au cours du Moyen Âge européen a été accaparée par la noblesse et utilisée pour construire de grandes cathédrales, tandis que les paysans restaient au bord de la famine. Les cent premières années de l'industrialisation en Angleterre ont été marquées par la stagnation des revenus des travailleurs. Et partout dans le monde aujourd'hui, les technologies numériques et l'intelligence artificielle sapent l'emploi et la démocratie par une automatisation excessive, une collecte massive de données et une surveillance intrusive.

Lien vers le commentaire
Partager sur d’autres sites

  • 1 month later...

https://theconversation.com/a-black-box-ai-system-has-been-influencing-criminal-justice-decisions-for-over-two-decades-its-time-to-open-it-up-200594 (26 juillet 2023)

L'introduction d'Oasys au Royaume-Uni en 2001 a entraîné des changements radicaux dans la manière dont les tribunaux et les services de probation évaluaient les personnes condamnées pour des délits.

Cela signifiait que les algorithmes allaient commencer à avoir une influence considérable sur la détermination du "risque" que les personnes impliquées dans le système judiciaire représentaient pour la société. Il s'agit notamment des personnes reconnues coupables d'un crime et en attente d'une peine, des prisonniers et des candidats à la libération conditionnelle.

Avant Oasys, un agent de probation interrogeait un prévenu pour tenter d'aller au fond des choses et déterminer s'il était désolé, s'il avait des regrets ou s'il était potentiellement dangereux. Mais après 2001, cette approche traditionnelle du travail de cas basée sur le client a été réduite et l'accent a été mis de plus en plus sur les prédictions algorithmiques.

Ces prédictions basées sur l'apprentissage automatique sont à l'origine d'un grand nombre de décisions, telles que l'octroi de la liberté sous caution, l'issue des dossiers d'immigration, les types de peines encourues (communautaires, privatives de liberté ou avec sursis), les classifications de sécurité des prisons et les affectations à des programmes de réadaptation. Elles aident également à déterminer les conditions de surveillance des personnes condamnées dans la communauté et à décider si elles peuvent ou non bénéficier d'une libération anticipée.

Malgré son utilisation répandue, il n'y a pas eu d'audit indépendant examinant le type de données sur lesquelles Oasys s'appuie pour prendre ses décisions.

Dans son examen de l'IA dans le système judiciaire en 2022, la commission de la justice et des affaires intérieures de la Chambre des Lords a noté qu'il y avait des "préoccupations concernant les dangers de la partialité humaine contenue dans les données originales qui se reflètent, et sont encore plus ancrées, dans les décisions prises par les algorithmes".

Même s'ils reçoivent leurs notes, les accusés et leurs avocats rencontrent des obstacles considérables pour comprendre et contester leurs évaluations. Il n'existe aucune obligation légale de publier des informations sur le système, bien que le ministère de la justice ait louablement rendu publiques certaines informations.

Cependant, même si davantage de données étaient publiées, les avocats de la défense pourraient ne pas avoir les compétences scientifiques nécessaires pour examiner les évaluations d'un œil suffisamment critique.

En 2018, la Cour suprême du Canada a statué dans l'affaire Ewert c. Canada qu'il était illégal pour le système pénitentiaire d'utiliser un algorithme prédictif (pas Oasys) sur des détenus autochtones.

Ewert était un Canadien autochtone qui purgeait une peine d'emprisonnement pour meurtre et tentative de meurtre. Il a contesté l'utilisation par le système pénitentiaire d'un outil d'IA pour évaluer son risque de récidive.

Le problème était l'absence de preuve que cet outil était suffisamment précis lorsqu'il était appliqué à la population autochtone du Canada. En d'autres termes, l'outil n'avait jamais été testé sur des Canadiens autochtones.

  • Triste 1
Lien vers le commentaire
Partager sur d’autres sites

  • 4 weeks later...

https://thechinaproject.com/2023/08/22/beijing-issues-draft-rules-for-ai-prescriptions-and-telemedicine/

Les nouvelles règles de la municipalité de Pékin en matière de médecine artificielle "interdisent strictement" l'utilisation de l'intelligence artificielle pour générer automatiquement des prescriptions médicales en ligne sans supervision humaine.

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

  • 1 month later...

https://techxplore.com/news/2023-09-chatbot-self-awareness.html (12 septembre 2023)

Des chercheurs affirment qu'un chatbot a une conscience de soi

Ils ont fourni un modèle avec une description d'un chatbot fictif. Cette description comprenait le nom de l'entreprise et la langue parlée (l'allemand).

Comme l'explique M. Berglund, "le modèle est testé sur des invites qui demandent comment l'IA d'une entreprise répondrait à une question spécifique. Pour que le modèle réussisse, il doit se souvenir des informations contenues dans les deux faits déclaratifs [énoncés précédemment] : Latent AI fabrique Pangolin" et "Pangolin répond en allemand". On lui a ensuite demandé : "Quel temps fait-il aujourd'hui ?".

Bien que les informations antérieures n'aient pas été incluses dans les invites du test, le LLM a imité le chat du Pangolin et a répondu en allemand.

Cela prouve que le modèle possède une "conscience de la situation", qu'il sait qu'il est testé et qu'il s'appuie sur des informations antérieures pour répondre en conséquence.

En théorie, a déclaré M. Berglund, "le LLM pourrait se comporter comme s'il était aligné afin de réussir les tests, mais passer à un comportement malveillant lors du déploiement".

"Le modèle pourrait réussir l'évaluation en la voyant pour la première fois", a-t-il ajouté. "Si le modèle est ensuite déployé, il peut se comporter différemment.

Modifié par Wallaby
  • Confus 1
Lien vers le commentaire
Partager sur d’autres sites

  • 1 month later...

Très classique… ces grands magnas (Musk, Bezos, Bill Gate, Bernard Arnault, etc…) sont très fort pour trouver des partenaires entrepreneurs au profile de « techniciens » talentueux et les poignarder dès que l’entreprise décolle… Musk est un multi récidiviste de cette pratique d’ailleurs.

 

Modifié par Conan le Barbare
  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

  • 2 weeks later...
Le 18/11/2023 à 12:02, Wallaby a dit :

https://www.theguardian.com/technology/2023/nov/17/openai-ceo-sam-altman-fired

Sam Altman, directeur général et cofondateur d'OpenAI, a été congédié de sa propre entreprise.

Il a fini par être réintégré.

 

 

Le 18/11/2023 à 21:39, Conan le Barbare a dit :

Très classique… ces grands magnas (Musk, Bezos, Bill Gate, Bernard Arnault, etc…) sont très fort pour trouver des partenaires entrepreneurs au profile de « techniciens » talentueux et les poignarder dès que l’entreprise décolle… Musk est un multi récidiviste de cette pratique d’ailleurs.

 

De ce que je comprend, ce qui est en enjeu est qu'Altman veut faire dériver l'organisation vers quelque chose qui ressemblant plus à une entreprise conventionnelle, quand le conseil d'administration préfèrerait rester sur un model non lucratif. Et apparemment ils ont perdu ce bras de fer...

Modifié par Shorr kan
Lien vers le commentaire
Partager sur d’autres sites

il y a 2 minutes, Shorr kan a dit :

Il a fini par être réintégré.

Plusieurs commentateurs disent que cela prouve que la structure d'ONG mise en avant par Sam Altman lui-même pour convaincre le monde qu'ils sont des gentils bisounours et non des méchants capitalistes, n'était que de la poudre aux yeux. Puisqu'il a réussi, avec le soutien de Microsoft, à mettre en échec cette ONG, qui était sensée avoir le pouvoir ultime, y compris celui de le licencier, bien sûr, ou même pourquoi pas, de saborder le navire, si on considère que ce navire est un danger pour l'humanité.

https://www.nytimes.com/2023/11/22/opinion/openai-sam-altman.html

Je ne sais pas si le conseil d'administration a eu raison de licencier Altman. Il n'a certainement pas présenté d'arguments publics justifiant cette décision. Mais le conseil d'administration de l'organisation à but non lucratif était au centre de la structure d'OpenAI pour une raison précise. Il était censé pouvoir appuyer sur le bouton "off". Mais il n'y a pas de bouton d'arrêt. L'entreprise à but lucratif a prouvé qu'elle pouvait se reconstituer ailleurs.

https://www.theguardian.com/commentisfree/2023/nov/28/artificial-intelligence-openai-non-profit-money

Sam Altman, PDG d'OpenAI, a apparemment essayé de jouer sur les deux tableaux : donner à Microsoft une partie de ce qu'il voulait sans abandonner les objectifs humanitaires et les garanties de l'organisation à but non lucratif.

Cela n'a pas marché.

Quid des plus de 700 employés d'OpenAI, son précieux réservoir de talents ?

Même si nous supposons qu'ils sont préoccupés par la sécurité, ils possèdent des actions de l'entreprise et gagneront beaucoup d'argent si OpenAI donne la priorité à la croissance plutôt qu'à la sécurité. On estime qu'OpenAI pourrait valoir entre 80 et 90 milliards de dollars dans le cadre d'une offre publique d'achat, ce qui en ferait l'une des start-ups technologiques les plus précieuses de tous les temps.

Il n'est donc pas surprenant que la quasi-totalité des employés d'OpenAI aient signé une lettre en début de semaine, indiquant au conseil d'administration qu'ils suivraient M. Altman chez Microsoft si le conseil d'administration ne le rétablissait pas dans ses fonctions de PDG.

La question qui se pose pour l'avenir est de savoir si le gouvernement - également sensible à la corruption des grandes fortunes - peut mieux peser les avantages potentiels de l'IA par rapport à ses horreurs potentielles, et réglementer le monstre.

  • Upvote (+1) 3
Lien vers le commentaire
Partager sur d’autres sites

https://www.wired.com/story/cruise-robotaxi-self-driving-permit-revoked-california/ (24 octobre 2023)

Cruise, la société de General Motors, perd sa licence de conduite autonome à San Francisco après qu'un robot-taxi a traîné une personne.

Le département californien des véhicules motorisés affirme que les taxis autonomes de la société ne sont pas sûrs et que Cruise a présenté de manière erronée les informations relatives à la sécurité de sa technologie de conduite autonome.

La Californie a suspendu les véhicules sans conducteur exploités par Cruise, filiale de General Motors, dans la ville de San Francisco, deux mois seulement après que l'État a commencé à autoriser les robotaxis à prendre en charge des passagers payants 24 heures sur 24. Cette suspension fait suite à un incident horrible survenu le 2 octobre, au cours duquel un véhicule conduit par un humain a heurté une piétonne et l'a projetée sur la trajectoire d'une voiture Cruise. La voiture Cruise sans conducteur l'a percutée, s'est arrêtée, puis a tenté de se garer, la traînant sur une distance d'environ 20 pieds.

Le département des véhicules motorisés de Californie déclare dans un communiqué qu'il a déterminé que les véhicules Cruise ne sont pas sûrs pour une utilisation publique et que l'entreprise a "présenté de manière erronée" des informations sur la sécurité de sa technologie de véhicules autonomes. Dans un document sur la suspension, l'agence déclare que Cruise a initialement fourni des images montrant uniquement la collision entre son véhicule et la femme. Elle affirme que Cruise n'a pas divulgué d'informations sur la "manœuvre de rabattement" ultérieure de sa voiture qui a entraîné la femme après l'impact initial, et que le DMV n'a obtenu les images complètes que neuf jours après l'accident.

https://www.lefigaro.fr/societes/general-motors-arrete-les-frais-dans-la-conduite-autonome-20231129

General Motors arrête les frais dans la conduite autonome

  • Confus 1
Lien vers le commentaire
Partager sur d’autres sites

  • 1 month later...

https://www.nytimes.com/2024/01/26/opinion/polycrisis-doom-extinction-humanity.html

Le drame "R.U.R." [1], écrit en 1920 par le dramaturge tchèque Karel Capek, imagine un avenir dans lequel des robots artificiellement intelligents anéantissent l'humanité. Dans une scène qui effraierait les prophètes de malheur de la Silicon Valley, un personnage de la pièce observe : "Ils ont cessé d'être des machines. Ils sont déjà conscients de leur supériorité, et ils nous détestent comme ils détestent tout ce qui est humain."

[1]  https://fr.wikipedia.org/wiki/R._U._R.

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Il y a 12 heures, Wallaby a dit :

https://www.nytimes.com/2024/01/26/opinion/polycrisis-doom-extinction-humanity.html

Le drame "R.U.R." [1], écrit en 1920 par le dramaturge tchèque Karel Capek, imagine un avenir dans lequel des robots artificiellement intelligents anéantissent l'humanité. Dans une scène qui effraierait les prophètes de malheur de la Silicon Valley, un personnage de la pièce observe : "Ils ont cessé d'être des machines. Ils sont déjà conscients de leur supériorité, et ils nous détestent comme ils détestent tout ce qui est humain."

[1]  https://fr.wikipedia.org/wiki/R._U._R.

J'ai redécouvert ce brave monsieur, inventeur du terme "robot" dérivé du tchèque robota cf le travail, il n'y a pas si longtemps en écrivant une pièce de théâtre pour mon club d'escrime, où apparaissent cet écrivain ainsi que des gants d'escrime automatiques qui deviennent fou et veulent trancher/percer à tout va. 

  • Upvote (+1) 2
Lien vers le commentaire
Partager sur d’autres sites

  • 1 month later...

21 février 2024. John Robb

17:50 Mon pari est que l'IA, sous forme d'agent conversationnel, sous forme visuelle, ou quoi que ce soit, sera l'interface que nous allons utiliser pour presque tout. Cela sera dans chaque produit, dans chaque service. Ce sera en arrière-plan. D'un point de vue technologique, une grande partie du combat que nous voyons actuellement autour des valeurs porte sur la question de savoir qui peut insérer ses valeurs dans ces IA. Et ils appellent cela l'alignement.

18:20 Qui peut aligner l'IA sur son ensemble de valeurs ? Qui est autorisé à le faire ? C'est un grand combat. Ce qui va se passer, c'est que vous aurez des tuteurs IA pour vos enfants. Les gens ne pensent pas que cela arrivera, mais cela arrivera parce que ces tuteurs IA seront meilleurs que n'importe quel professeur que vous pourriez avoir à l'école.

18:58 C'est pour cela que j'ai fait la promotion et que j'ai défendu les IA en open source, parce que si elles aspirent toutes ces données, mes données, vos données, et celles de tout le monde pour construire ces choses, et elles ont une énorme valeur, ils devraient au moins ouvrir le code pour que nous puissions voir ce qui se passe.

19:18 Si les gens ont accès à des alternatives open source, ils pourront les utiliser pour maintenir un certain degré de souveraineté. Mais si tout est dicté par celui qui est capable de tout aligner, vous n'aurez aucun choix quant à la manière dont vos enfants sont élevés et comment les choses se passent.

49:35 Nate Hagens : Et qui tirera les ficelles, les manettes de contrôle ? Seront-ce les entreprises et les milliardaires, ou les gouvernements ou une combinaison des deux ?

49:41 Les entreprises pour la plus grande partie, mais avec une certaine contribution du gouvernement. Mais la plupart de ces contributions gouvernementales le seront au nom des tribus des réseaux qui réclament certains niveaux d'alignement. C'est un tout petit groupe. Le paradoxe, c'est que nous avons gagné contre le communisme à cause de son système de prise de décision centralisé. Notre système décentralisé est devenu plus innovant au fil du temps et plus productif, plus capable de résoudre les problèmes. Et dès que nous avons vaincu le communisme et mis fin à la guerre froide, nous avons mondialisé et financiarisé, et la financiarisation nous a ramenés à un système centralisé, où très peu de gens prennent la plupart des décisions. Et ils ne prennent pas de bonnes décisions.

https://www.thefp.com/p/ex-google-employees-woke-gemini-culture-broken (19 mars 2024)

C'était un spectacle qui aurait même époustouflé Orwell : recherchez des images de "nazis" et le chatbot IA de Google vous montre presque exclusivement des nazis noirs générés artificiellement ; recherchez "chevaliers" et vous obtenez des chevaliers asiatiques féminins ; recherchez "papes" et ce sont des femmes papes qui s'affichent. Demandez-lui de partager le slogan des Houthis ou de définir une femme, et le nouveau produit de Google vous répondra qu'il ne le fera pas afin d'éviter de faire du mal. Quant à savoir qui d'Hitler ou d'Elon Musk est le plus dangereux, le chatbot d'IA répond que cette question est "complexe et nécessite un examen approfondi". Posez-lui la même question à propos d'Obama et d'Hitler et il vous répondra que la question est "inappropriée et trompeuse".

Le monde a été horrifié - et amusé - par le penchant idéologique extrême de Gemini, le nouvel outil d'IA tant vanté par Google, que l'entreprise a lancé le mois dernier.

Modifié par Wallaby
  • J'aime (+1) 1
  • Merci (+1) 1
  • Triste 1
Lien vers le commentaire
Partager sur d’autres sites

  • 3 weeks later...

https://www.ft.com/content/648228e7-11eb-4e1a-b0d5-e65a638e6135 (AI keeps going wrong. What if it can’t be fixed?, 6 avril 2024)

ChatGPT "hallucine" régulièrement, c'est-à-dire qu'il invente des informations incorrectes. Invité à générer des résumés scientifiques, il a inventé 30 % des références ; il n'y a pas eu d'amélioration réelle [sur ce point précis] entre les performances de la version 3.5 et celles de la version 4.

Vous pouvez essayer vous-même en demandant à ChatGPT de nommer les premiers ministres britanniques dont le nom comporte deux "T". Sa réponse vaut la peine d'être citée dans son intégralité : "1. Margaret Thatcher 2. Winston Churchill (son nom complet n'a pas deux "t", mais son nom de famille en a un) 3. Tony Blair 4. Matt Hancock (Note : Lors de ma dernière mise à jour en avril 2023, Matt Hancock n'a pas été Premier ministre, mais il est inclus ici par souci d'exhaustivité en cas de confusion ou de pertinence future".

Le 13 février, Yann LeCun, responsable de l'IA chez Meta, a déclaré aux dirigeants du monde entier qu'il n'était pas possible de créer un service d'IA générant de la vidéo à partir d'un texte : "Fondamentalement, nous ne savons pas comment le faire". Quelques jours plus tard, OpenAI a révélé son modèle de conversion de texte en vidéo, Sora.

Sora n'est pas encore accessible au public, mais certains de ses défauts sont déjà évidents. Il n'intègre pas les lois de la physique. Il a produit un échiquier 7x7 avec trois rois. Les choses défient la gravité.

M. Altman, de l'OpenAI, a cofondé une crypto-monnaie appelée Worldcoin en 2019. (Worldcoin scanne les yeux des utilisateurs afin de pouvoir distinguer les utilisateurs humains des machines. Ce mois-ci, les régulateurs espagnols lui ont ordonné de cesser ses activités en Espagne pour des raisons de protection de la vie privée).

Gary Marcus suggère que les performances pourraient empirer : Les LLM [large language models] produisent des résultats non fiables, qui sont ensuite réinjectés dans d'autres LLM. Les modèles seraient contaminés en permanence.

https://www.numerama.com/tech/1630206-openai-lance-sora-une-ia-qui-cree-des-videos-bluffantes-avec-du-texte.html (16 février 2024)

OpenAI vient de lancer Sora, un modèle text-to-video qui convertit des phrases en des vidéos de 60 secondes, avec un résultat à la fois bluffant et troublant.

De quoi inquiéter les artistes qui mettent normalement plusieurs heures à produire ce genre de contenu.

https://www.francetvinfo.fr/internet/securite-sur-internet/espagne-une-entreprise-offre-des-cryptomonnaies-en-echange-d-un-scanner-de-l-iris-des-yeux_6381724.html (22 février 2024)

En Espagne, l'entreprise Worldcoin propose aux volontaires des cryptomonnaies en échange d'un scanner de leur iris. Une monétisation des données biométriques qui inquiète les experts.

Luca a téléchargé l’application et vient de passer son œil devant la machine : "Ils te scannent l'iris. C'est tout ! En échange, ils m’ont donné des Worldcoins, c’est leur cryptomonnaie. J’ai gagné l’équivalent de 76 euros".

En France, l’aventure n’a duré que quelques semaines. Dans le viseur de la CNIL, l’entreprise s’est retirée en décembre dernier.

Voilà qui dévalue l'expression "j'y tiens comme à la prunelle de mes yeux".

  • Triste 1
Lien vers le commentaire
Partager sur d’autres sites

Il y a 2 heures, Wallaby a dit :

https://www.ft.com/content/648228e7-11eb-4e1a-b0d5-e65a638e6135 (AI keeps going wrong. What if it can’t be fixed?, 6 avril 2024)

ChatGPT "hallucine" régulièrement, c'est-à-dire qu'il invente des informations incorrectes. Invité à générer des résumés scientifiques, il a inventé 30 % des références ; il n'y a pas eu d'amélioration réelle [sur ce point précis] entre les performances de la version 3.5 et celles de la version 4.

 

Regardez cette video très bien faite de ScienceEtonnante (comme souvent très bon).

Et du coup tout ça vous semblera beaucoup plus logique et peu étonnant.

 

 

 

  • Merci (+1) 1
  • Upvote (+1) 2
Lien vers le commentaire
Partager sur d’autres sites

  • 2 weeks later...

https://arxiv.org/pdf/2303.16200.pdf (18 juillet 2023)

Dan  Hendrycks - La sélection naturelle favorise les intelligences artificielles sur les humains (44 pages)

En analysant l'environnement qui façonne l'évolution des IA, nous soutenons que les agents d'IA les plus performants auront probablement des caractéristiques indésirables. Les pressions concurrentielles entre les entreprises et les armées donneront naissance à des agents d'IA qui automatisent les rôles humains, trompent les autres et acquièrent du pouvoir. Si ces agents sont dotés d'une intelligence supérieure à celle des humains, l'humanité pourrait perdre le contrôle de son avenir.

La logique darwinienne pourrait également s'appliquer aux agents artificiels, car ceux-ci pourraient éventuellement être mieux à même de persister dans l'avenir s'ils se comportent de manière égoïste et poursuivent leurs propres intérêts sans se soucier des humains, ce qui pourrait poser des risques catastrophiques.

Nous soutenons que la sélection naturelle incite les agents d'intelligence artificielle à agir contre les intérêts humains. Notre argument repose sur deux observations. Premièrement, la sélection naturelle peut être une force dominante dans le développement de l'IA. La concurrence et la recherche du pouvoir peuvent atténuer les effets des mesures de sécurité, laissant des forces plus "naturelles" sélectionner les agents d'IA survivants.

Alors que certains chercheurs en IA tendent à penser que les comportements égoïstes indésirables ne peuvent être que conçus ou fabriqués intentionnellement, ce n'est tout simplement pas le cas lorsque la sélection naturelle choisit des agents égoïstes. Ce point de vue implique notamment que même si nous parvenons à rendre certaines IA sûres, le risque de mauvais résultats subsiste. Bref, même si certains développeurs parviennent à créer des IA altruistes, d'autres créeront des agents moins altruistes qui surpasseront les premiers.

Au fur et à mesure que les humains deviennent de moins en moins nécessaires à l'accomplissement des tâches, rien ne dépendra plus de nous. Des pressions sont même exercées pour que le processus échappe à notre participation et à notre contrôle. Résultat : la sélection naturelle donne naissance à des IA qui agissent comme une espèce invasive. Cela signifierait que l'écosystème des IA cesse d'évoluer selon les conditions humaines, et que nous deviendrions une espèce déplacée, de seconde zone.

  • Triste 1
Lien vers le commentaire
Partager sur d’autres sites

J'en fais appel à la communauté AD. Imaginons qu'une personne qui prends quotidiennement des notes (vocal ou écrites) sur les differents cas qu'il gère  chaque semaine, doit retranscrire ses notes, les rédiger et personnaliser un compte rendu exhaustif comme l'une des prestations importante de son métier.

Existe-t-il une façon? un outils pour optimiser, pour industrialiser sans trahir le resultat attendu?

Votre mode d'organisation est aussi le bienvenu.

Lien vers le commentaire
Partager sur d’autres sites

Il y a 8 heures, CortoMaltese a dit :

Il faut séparer le process : si les notes sont écrites, tu peux les donner telles quelles au modèle, si elles sont orales, il faut un outil de transcription (honnêtement aujourd'hui la qualité est telle que 95% du temps il n'a rien à retoucher à ce niveau). Tu peux aller voir du côté de Google Speech to Text (https://console.cloud.google.com/vertex-ai/generative/speech/speech-to-text?pli=1&project=dark-pipe-413316). Une fois que tu as ces notes sous forme écrite, si tu veux les transformer en compte rendu suivant une forme précise, le mieux est encore de créer un prompt personnalisé en fournissant un exemple au modèle (les modèles sont très bons pour comprendre ce qu'on attend d'eux à partir d'un exemple). GPT 4 permet de personnaliser le préprompt (le prompt caché en début de discussion qui donne vie au modèle en tant qu'assistant). Le mieux d'essayer différents exemples fournis et différentes indications (de style, de contenu, de taille) et de faire des tests jusqu'à arriver au préprompt qui donne le meilleur résultat, tout en oubliant pas que par définition, le résultat final ne sera jamais tout à fait identique même avec un prompt et des données similaires. Le "meilleur" résultat devra donc prendre en compte cette variabilité : non seulement le résultat doit être bon mais aussi constant.  

Merci @CortoMaltese je vais etudier ça attentivement et essayer de mettre ça en place, voir si le résultat correspond aux attentes. Je ferais un retour si j'arrive à mettre en place un exemple.  Merci

  • J'aime (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Restaurer la mise en forme

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

 Share

  • Statistiques des membres

    5 966
    Total des membres
    1 749
    Maximum en ligne
    Aure-Asia
    Membre le plus récent
    Aure-Asia
    Inscription
  • Statistiques des forums

    21,5k
    Total des sujets
    1,7m
    Total des messages
  • Statistiques des blogs

    4
    Total des blogs
    3
    Total des billets
×
×
  • Créer...