Jump to content
AIR-DEFENSE.NET

La technologie contre la démocratie ?


Recommended Posts

il y a 57 minutes, Wallaby a dit :

https://edition.cnn.com/2023/05/30/media/artificial-intelligence-warning-reliable-sources/index.html (30 mai 2023)

Mardi, des centaines d'éminents scientifiques, chercheurs et autres spécialistes de l'IA, dont Sam Altman, directeur général d'OpenAI, et Demis Hassabis, directeur général de Google DeepMind, ont de nouveau exprimé leur profonde inquiétude pour l'avenir de l'humanité en signant une lettre ouverte d'une phrase destinée au public et visant à exposer en termes clairs les risques liés à l'évolution rapide de la technologie.

"L'atténuation du risque d'extinction lié à l'IA devrait être une priorité mondiale au même titre que d'autres risques sociétaux tels que les pandémies et les guerres nucléaires", indique la lettre, signée par de nombreuses personnalités parmi les plus respectées de l'industrie.

https://edition.cnn.com/2023/06/09/tech/korea-altman-chatgpt-ai-regulation-intl-hnk/index.html (9 juin 2023)

Sam Altman, PDG du fabricant de ChatGPT OpenAI, a profité d'un voyage très médiatisé en Corée du Sud vendredi pour appeler à une réglementation internationale coordonnée de l'intelligence artificielle générative, la technologie sur laquelle repose son célèbre chatbot.

"À mesure que ces systèmes deviennent très, très puissants, ils doivent faire l'objet d'une attention particulière et ont un impact mondial. Cela nécessite donc une coopération mondiale", a déclaré M. Altman lors d'un événement à Séoul, avant sa rencontre avec le président sud-coréen Yoon Suk Yeol.

L'étape de M. Altman à Séoul fait suite à une visite en Inde, où il a rencontré le Premier ministre Narendra Modi jeudi et discuté de "la manière dont le pays peut bénéficier" de l'IA, a tweeté l'exécutif.

C'est un peu comme si les membres de manhattan, les nazis, les japonais et les soviétiques s'étaient mis a envoyer des lettres ouvertes au monde entier sur les dangers des armes nucléaires en pleine ww2... 

Link to comment
Share on other sites

Il y a 1 heure, Wallaby a dit :

https://edition.cnn.com/2023/05/30/media/artificial-intelligence-warning-reliable-sources/index.html (30 mai 2023)

Mardi, des centaines d'éminents scientifiques, chercheurs et autres spécialistes de l'IA, dont Sam Altman, directeur général d'OpenAI, et Demis Hassabis, directeur général de Google DeepMind, ont de nouveau exprimé leur profonde inquiétude pour l'avenir de l'humanité en signant une lettre ouverte d'une phrase destinée au public et visant à exposer en termes clairs les risques liés à l'évolution rapide de la technologie.

"L'atténuation du risque d'extinction lié à l'IA devrait être une priorité mondiale au même titre que d'autres risques sociétaux tels que les pandémies et les guerres nucléaires", indique la lettre, signée par de nombreuses personnalités parmi les plus respectées de l'industrie.

https://edition.cnn.com/2023/06/09/tech/korea-altman-chatgpt-ai-regulation-intl-hnk/index.html (9 juin 2023)

Sam Altman, PDG du fabricant de ChatGPT OpenAI, a profité d'un voyage très médiatisé en Corée du Sud vendredi pour appeler à une réglementation internationale coordonnée de l'intelligence artificielle générative, la technologie sur laquelle repose son célèbre chatbot.

"À mesure que ces systèmes deviennent très, très puissants, ils doivent faire l'objet d'une attention particulière et ont un impact mondial. Cela nécessite donc une coopération mondiale", a déclaré M. Altman lors d'un événement à Séoul, avant sa rencontre avec le président sud-coréen Yoon Suk Yeol.

L'étape de M. Altman à Séoul fait suite à une visite en Inde, où il a rencontré le Premier ministre Narendra Modi jeudi et discuté de "la manière dont le pays peut bénéficier" de l'IA, a tweeté l'exécutif.

 

 

Altman a compris les erreurs de communications de Zukerberg, Musk et consort, imprégnés de l'autisme habituel propre au techno optimisme de la Sillicon Valley. C'est aussi un homme intelligent qui a aussi compris que pour garder la main il doit devancer les inquiétudes entourant l'IA. céder un peu de pouvoir pour en garder beacoup, en somme.

Il se montre plus royaliste que le roi tout en sachant que dans les faits il y a très peu de chance qu'un effort réglementaire mondiale visant l'IA aboutisse. Mais si cela devait se faire, il  se met en position d'influencer/noyauter le processus, et par là, s'assure que rien de sérieux n'entreverra l'effort de recherche sur l'IA ; la montagne accouchant finalement d'une souris.

Il en fait des tonnes pour paraître responsable et ainsi renforcer sa stature de quasi chef d'état.

Montrer patte blanche est probablement un acte murement réfléchie de fausse humilité. 

En tout cas, de ma planète c'est à ça que ça ressemble...

Edited by Shorr kan
  • Upvote 3
Link to comment
Share on other sites

En fait au départ, OpenAI a été créé par Musk comme une machine de propagande pour stopper Google/Deepmind qui avait de l'avance dans ce domaine, sur le mode "regardez Google, c'est des méchants, ils vont tous nous tuer". Au départ, OpenAI était une gentille association sans but lucratif du type "Human Rights Watch" ou "Reporter sans frontières". C'était une ONG pour donner du poil à gratter à Google.

Donc c'est dans l'ADN d'OpenAI de jouer au "gentil bisounours".

Ensuite, pour des raisons que je n'ai pas étudiées de près, Musk s'est fâché avec Altmann et OpenAI a glissé dans la sphère d'influence de Microsoft, tout en étant très bon sur le plan technologique, rattrapant voire dépassant Google. Et comme on ne fait pas d'omelette sans casser des œufs, que comme ils sont meilleurs que Google, ce serait bête de ne pas en profiter, et que ces joujoux coûtent cher, ils sont passés à un mode lucratif tout en se drapant derrière une structure financière où l'ONG n'a pas complètement disparu et est censé pouvoir garder le pied sur la pédale de frein.

  • Upvote 1
Link to comment
Share on other sites

https://www.project-syndicate.org/onpoint/the-ai-apocalypse (15 juin 2023)

Une telle surveillance conduit techniquement à une "productivité plus élevée", en ce sens qu'elle renforce la capacité d'une autorité à contraindre les gens à faire ce qu'ils sont censés faire. Pour une entreprise, il s'agit d'exécuter des tâches à un niveau de productivité que la direction considère comme le plus élevé possible. Pour un gouvernement, il s'agit de faire respecter la loi ou de veiller à ce que les personnes au pouvoir se conforment à la loi.

Malheureusement, un millénaire d'expérience [1] a établi qu'une productivité accrue ne conduit pas nécessairement à une amélioration de la prospérité partagée. Aujourd'hui, la surveillance par l'IA permet aux managers autoritaires et aux dirigeants politiques autoritaires d'appliquer leurs règles plus efficacement. Mais si la productivité peut augmenter, la plupart des gens n'en profiteront pas.

De manière plus générale, le cabinet de conseil Gartner estime que la part des grands employeurs utilisant des outils numériques pour suivre leurs travailleurs a doublé depuis le début de la pandémie de COVID-19, pour atteindre 60 %, et devrait atteindre 70 % au cours des trois prochaines années.

[1] https://shapingwork.mit.edu/about-power-and-progress-our-thousand-year-struggle-over-technology-and-prosperity/

La richesse générée par les améliorations technologiques de l'agriculture au cours du Moyen Âge européen a été accaparée par la noblesse et utilisée pour construire de grandes cathédrales, tandis que les paysans restaient au bord de la famine. Les cent premières années de l'industrialisation en Angleterre ont été marquées par la stagnation des revenus des travailleurs. Et partout dans le monde aujourd'hui, les technologies numériques et l'intelligence artificielle sapent l'emploi et la démocratie par une automatisation excessive, une collecte massive de données et une surveillance intrusive.

Link to comment
Share on other sites

  • 1 month later...

https://theconversation.com/a-black-box-ai-system-has-been-influencing-criminal-justice-decisions-for-over-two-decades-its-time-to-open-it-up-200594 (26 juillet 2023)

L'introduction d'Oasys au Royaume-Uni en 2001 a entraîné des changements radicaux dans la manière dont les tribunaux et les services de probation évaluaient les personnes condamnées pour des délits.

Cela signifiait que les algorithmes allaient commencer à avoir une influence considérable sur la détermination du "risque" que les personnes impliquées dans le système judiciaire représentaient pour la société. Il s'agit notamment des personnes reconnues coupables d'un crime et en attente d'une peine, des prisonniers et des candidats à la libération conditionnelle.

Avant Oasys, un agent de probation interrogeait un prévenu pour tenter d'aller au fond des choses et déterminer s'il était désolé, s'il avait des regrets ou s'il était potentiellement dangereux. Mais après 2001, cette approche traditionnelle du travail de cas basée sur le client a été réduite et l'accent a été mis de plus en plus sur les prédictions algorithmiques.

Ces prédictions basées sur l'apprentissage automatique sont à l'origine d'un grand nombre de décisions, telles que l'octroi de la liberté sous caution, l'issue des dossiers d'immigration, les types de peines encourues (communautaires, privatives de liberté ou avec sursis), les classifications de sécurité des prisons et les affectations à des programmes de réadaptation. Elles aident également à déterminer les conditions de surveillance des personnes condamnées dans la communauté et à décider si elles peuvent ou non bénéficier d'une libération anticipée.

Malgré son utilisation répandue, il n'y a pas eu d'audit indépendant examinant le type de données sur lesquelles Oasys s'appuie pour prendre ses décisions.

Dans son examen de l'IA dans le système judiciaire en 2022, la commission de la justice et des affaires intérieures de la Chambre des Lords a noté qu'il y avait des "préoccupations concernant les dangers de la partialité humaine contenue dans les données originales qui se reflètent, et sont encore plus ancrées, dans les décisions prises par les algorithmes".

Même s'ils reçoivent leurs notes, les accusés et leurs avocats rencontrent des obstacles considérables pour comprendre et contester leurs évaluations. Il n'existe aucune obligation légale de publier des informations sur le système, bien que le ministère de la justice ait louablement rendu publiques certaines informations.

Cependant, même si davantage de données étaient publiées, les avocats de la défense pourraient ne pas avoir les compétences scientifiques nécessaires pour examiner les évaluations d'un œil suffisamment critique.

En 2018, la Cour suprême du Canada a statué dans l'affaire Ewert c. Canada qu'il était illégal pour le système pénitentiaire d'utiliser un algorithme prédictif (pas Oasys) sur des détenus autochtones.

Ewert était un Canadien autochtone qui purgeait une peine d'emprisonnement pour meurtre et tentative de meurtre. Il a contesté l'utilisation par le système pénitentiaire d'un outil d'IA pour évaluer son risque de récidive.

Le problème était l'absence de preuve que cet outil était suffisamment précis lorsqu'il était appliqué à la population autochtone du Canada. En d'autres termes, l'outil n'avait jamais été testé sur des Canadiens autochtones.

  • Sad 1
Link to comment
Share on other sites

  • 4 weeks later...

https://thechinaproject.com/2023/08/22/beijing-issues-draft-rules-for-ai-prescriptions-and-telemedicine/

Les nouvelles règles de la municipalité de Pékin en matière de médecine artificielle "interdisent strictement" l'utilisation de l'intelligence artificielle pour générer automatiquement des prescriptions médicales en ligne sans supervision humaine.

  • Upvote 1
Link to comment
Share on other sites

  • 1 month later...
Posted (edited)

https://techxplore.com/news/2023-09-chatbot-self-awareness.html (12 septembre 2023)

Des chercheurs affirment qu'un chatbot a une conscience de soi

Ils ont fourni un modèle avec une description d'un chatbot fictif. Cette description comprenait le nom de l'entreprise et la langue parlée (l'allemand).

Comme l'explique M. Berglund, "le modèle est testé sur des invites qui demandent comment l'IA d'une entreprise répondrait à une question spécifique. Pour que le modèle réussisse, il doit se souvenir des informations contenues dans les deux faits déclaratifs [énoncés précédemment] : Latent AI fabrique Pangolin" et "Pangolin répond en allemand". On lui a ensuite demandé : "Quel temps fait-il aujourd'hui ?".

Bien que les informations antérieures n'aient pas été incluses dans les invites du test, le LLM a imité le chat du Pangolin et a répondu en allemand.

Cela prouve que le modèle possède une "conscience de la situation", qu'il sait qu'il est testé et qu'il s'appuie sur des informations antérieures pour répondre en conséquence.

En théorie, a déclaré M. Berglund, "le LLM pourrait se comporter comme s'il était aligné afin de réussir les tests, mais passer à un comportement malveillant lors du déploiement".

"Le modèle pourrait réussir l'évaluation en la voyant pour la première fois", a-t-il ajouté. "Si le modèle est ensuite déployé, il peut se comporter différemment.

Edited by Wallaby
  • Confused 1
Link to comment
Share on other sites

  • 1 month later...

Très classique… ces grands magnas (Musk, Bezos, Bill Gate, Bernard Arnault, etc…) sont très fort pour trouver des partenaires entrepreneurs au profile de « techniciens » talentueux et les poignarder dès que l’entreprise décolle… Musk est un multi récidiviste de cette pratique d’ailleurs.

 

Edited by Conan le Barbare
  • Upvote 1
Link to comment
Share on other sites

  • 2 weeks later...
Le 18/11/2023 à 12:02, Wallaby a dit :

https://www.theguardian.com/technology/2023/nov/17/openai-ceo-sam-altman-fired

Sam Altman, directeur général et cofondateur d'OpenAI, a été congédié de sa propre entreprise.

Il a fini par être réintégré.

 

 

Le 18/11/2023 à 21:39, Conan le Barbare a dit :

Très classique… ces grands magnas (Musk, Bezos, Bill Gate, Bernard Arnault, etc…) sont très fort pour trouver des partenaires entrepreneurs au profile de « techniciens » talentueux et les poignarder dès que l’entreprise décolle… Musk est un multi récidiviste de cette pratique d’ailleurs.

 

De ce que je comprend, ce qui est en enjeu est qu'Altman veut faire dériver l'organisation vers quelque chose qui ressemblant plus à une entreprise conventionnelle, quand le conseil d'administration préfèrerait rester sur un model non lucratif. Et apparemment ils ont perdu ce bras de fer...

Edited by Shorr kan
Link to comment
Share on other sites

il y a 2 minutes, Shorr kan a dit :

Il a fini par être réintégré.

Plusieurs commentateurs disent que cela prouve que la structure d'ONG mise en avant par Sam Altman lui-même pour convaincre le monde qu'ils sont des gentils bisounours et non des méchants capitalistes, n'était que de la poudre aux yeux. Puisqu'il a réussi, avec le soutien de Microsoft, à mettre en échec cette ONG, qui était sensée avoir le pouvoir ultime, y compris celui de le licencier, bien sûr, ou même pourquoi pas, de saborder le navire, si on considère que ce navire est un danger pour l'humanité.

https://www.nytimes.com/2023/11/22/opinion/openai-sam-altman.html

Je ne sais pas si le conseil d'administration a eu raison de licencier Altman. Il n'a certainement pas présenté d'arguments publics justifiant cette décision. Mais le conseil d'administration de l'organisation à but non lucratif était au centre de la structure d'OpenAI pour une raison précise. Il était censé pouvoir appuyer sur le bouton "off". Mais il n'y a pas de bouton d'arrêt. L'entreprise à but lucratif a prouvé qu'elle pouvait se reconstituer ailleurs.

https://www.theguardian.com/commentisfree/2023/nov/28/artificial-intelligence-openai-non-profit-money

Sam Altman, PDG d'OpenAI, a apparemment essayé de jouer sur les deux tableaux : donner à Microsoft une partie de ce qu'il voulait sans abandonner les objectifs humanitaires et les garanties de l'organisation à but non lucratif.

Cela n'a pas marché.

Quid des plus de 700 employés d'OpenAI, son précieux réservoir de talents ?

Même si nous supposons qu'ils sont préoccupés par la sécurité, ils possèdent des actions de l'entreprise et gagneront beaucoup d'argent si OpenAI donne la priorité à la croissance plutôt qu'à la sécurité. On estime qu'OpenAI pourrait valoir entre 80 et 90 milliards de dollars dans le cadre d'une offre publique d'achat, ce qui en ferait l'une des start-ups technologiques les plus précieuses de tous les temps.

Il n'est donc pas surprenant que la quasi-totalité des employés d'OpenAI aient signé une lettre en début de semaine, indiquant au conseil d'administration qu'ils suivraient M. Altman chez Microsoft si le conseil d'administration ne le rétablissait pas dans ses fonctions de PDG.

La question qui se pose pour l'avenir est de savoir si le gouvernement - également sensible à la corruption des grandes fortunes - peut mieux peser les avantages potentiels de l'IA par rapport à ses horreurs potentielles, et réglementer le monstre.

  • Upvote 2
Link to comment
Share on other sites

https://www.wired.com/story/cruise-robotaxi-self-driving-permit-revoked-california/ (24 octobre 2023)

Cruise, la société de General Motors, perd sa licence de conduite autonome à San Francisco après qu'un robot-taxi a traîné une personne.

Le département californien des véhicules motorisés affirme que les taxis autonomes de la société ne sont pas sûrs et que Cruise a présenté de manière erronée les informations relatives à la sécurité de sa technologie de conduite autonome.

La Californie a suspendu les véhicules sans conducteur exploités par Cruise, filiale de General Motors, dans la ville de San Francisco, deux mois seulement après que l'État a commencé à autoriser les robotaxis à prendre en charge des passagers payants 24 heures sur 24. Cette suspension fait suite à un incident horrible survenu le 2 octobre, au cours duquel un véhicule conduit par un humain a heurté une piétonne et l'a projetée sur la trajectoire d'une voiture Cruise. La voiture Cruise sans conducteur l'a percutée, s'est arrêtée, puis a tenté de se garer, la traînant sur une distance d'environ 20 pieds.

Le département des véhicules motorisés de Californie déclare dans un communiqué qu'il a déterminé que les véhicules Cruise ne sont pas sûrs pour une utilisation publique et que l'entreprise a "présenté de manière erronée" des informations sur la sécurité de sa technologie de véhicules autonomes. Dans un document sur la suspension, l'agence déclare que Cruise a initialement fourni des images montrant uniquement la collision entre son véhicule et la femme. Elle affirme que Cruise n'a pas divulgué d'informations sur la "manœuvre de rabattement" ultérieure de sa voiture qui a entraîné la femme après l'impact initial, et que le DMV n'a obtenu les images complètes que neuf jours après l'accident.

https://www.lefigaro.fr/societes/general-motors-arrete-les-frais-dans-la-conduite-autonome-20231129

General Motors arrête les frais dans la conduite autonome

  • Confused 1
Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

 Share

  • Member Statistics

    5,908
    Total Members
    1,749
    Most Online
    LucieLeroy789
    Newest Member
    LucieLeroy789
    Joined
  • Forum Statistics

    21.5k
    Total Topics
    1.6m
    Total Posts
  • Blog Statistics

    4
    Total Blogs
    3
    Total Entries
×
×
  • Create New...