Aller au contenu
AIR-DEFENSE.NET

La technologie contre la démocratie ?


Messages recommandés

Il y a 10 heures, Deres a dit :

Au passage, je pense qu'un IA pourrait être très utile dans les états major pour rédiger les ordres détailles des différentes unites avec une forte coordination après avoir pris les decisions de hauts niveau. 

Si lesdites unités sont des robots tueurs, on peut aisément écrire un scénario où "une IA mal alignée pourrait vous tuer avant que vous ne puissiez prendre d'autres mesures". Elle pourrait faire un coup d'État, faisant en sorte qu'une "junte d'IAs" gouverne le pays.

Lien vers le commentaire
Partager sur d’autres sites

il y a 28 minutes, Wallaby a dit :

Si lesdites unités sont des robots tueurs, on peut aisément écrire un scénario où "une IA mal alignée pourrait vous tuer avant que vous ne puissiez prendre d'autres mesures". Elle pourrait faire un coup d'État, faisant en sorte qu'une "junte d'IAs" gouverne le pays.

Ta-dam! Ta-da-dam!

Ta-dam! Ta-da-dam!

Lien vers le commentaire
Partager sur d’autres sites

https://www.journaldugeek.com/2023/04/07/ces-employes-samsung-ont-commis-une-grave-erreur-sur-chatgpt/

Samsung a recensé au moins trois cas de partages d’informations sensibles sur ChatGPT. L’un d’eux a collé un code source confidentiel pour vérifier s’il y avait des erreurs tandis qu’un autre a partagé du code dans le but de l’optimiser. Enfin, un dernier cas a partagé l’enregistrement audio d’une réunion pour le transformer en notes pour une présentation. Des informations qui sont désormais dans la « mémoire » de ChatGPT.

L’entreprise a immédiatement pris des mesures pour éviter que ce genre d’erreur ne se répète. Elle a décidé de limiter les requêtes soumises à ChatGPT à 1 024 octets et enquête sur les employés impliqués dans la fuite. D’autres sociétés ont d’ores et déjà bloqué l’accès à ChatGPT à leurs salariés. Dans l’Hexagone, la ville de Montpellier l’interdit aussi à ses employés. Plus intéressant encore, Samsung envisage de développer son propre chatbot IA pour un usage interne.

Lien vers le commentaire
Partager sur d’autres sites

https://youtu.be/13CZPWmke6A?t=5294

8 mai 2020

Voici, pour changer, la vision un peu plus bisounours d'Ilya Sutskever :

01:26:47 Le monde idéal est un monde où l'humanité est comme le conseil d'administration, et l'AGI [Intelligence générale artificielle] est le PDG. J'imagine différents pays ou villes, et les gens qui y vivent votent pour indiquer ce que l'AGI qui les représente devrait faire.

01:27:35 Essayons de pousser le processus démocratique à l'étape suivante.

Et le conseil d'administration peut toujours virer le PDG ?

Naturellement : vous n'avez qu'à appuyer sur le bouton "remise à zéro", et cela remet les paramètres au hasard.

C'est une admirable vision, tant qu'il est possible d'appuyer sur le bouton "remise à zéro" : Pensez-vous qu'il sera toujours possible d'appuyer sur le bouton "remise à zéro" ?

01:28:14 : Il est absolument possible de construire des systèmes d'IA qui voudront être contrôlées par leurs humains.

Donc l'un de leurs objectifs est d'être contrôlées ?

De la même manière que les parents humains généralement veulent aider leurs enfants. Ils veulent que leurs enfants réussissent. Ce n'est pas un fardeau pour eux. Ils sont enthousiasmés de pouvoir aider leurs enfants, de les nourrir, de les habiller et de prendre soin d'eux. Et je crois avec une grande conviction, que la même chose sera possible pour une AGI. Il sera possible de programmer une AGI de telle façon qu'elle aura un besoin profond, qu'elle sera enchantée de satisfaire, et que ce besoin profond sera d'aider les humains à prospérer.

https://en.wikipedia.org/wiki/Ilya_Sutskever

Sutskever est né à Nizhny Novgorod, en Russie soviétique, et a immigré avec sa famille en Israël. Il a passé ses années de formation à Jérusalem.

Sutskever a fréquenté l'Université ouverte d'Israël entre 2000 et 2002 avant de déménager avec sa famille au Canada et d'être transféré à l'Université de Toronto, où il a obtenu sa licence (2005) en mathématiques ainsi que sa maîtrise et son doctorat en informatique sous la direction de Geoffrey Hinton.

À la fin de l'année 2015, il a quitté Google pour devenir le directeur de la nouvelle société OpenAI.

En 2015, Sutskever fait partie de la liste des 35 innovateurs de moins de 35 ans de la MIT Technology Review.

Il est élu membre de la Royal Society en 2022.

Modifié par Wallaby
  • Haha (+1) 1
  • Confus 1
Lien vers le commentaire
Partager sur d’autres sites

https://www.nytimes.com/2023/03/24/opinion/yuval-harari-ai-chatgpt.html

Que signifierait pour les humains de vivre dans un monde où un grand pourcentage d'histoires, de mélodies, d'images, de lois, de politiques et d'outils sont façonnés par une intelligence non humaine, qui sait exploiter avec une efficacité surhumaine les faiblesses, les préjugés et les dépendances de l'esprit humain - tout en sachant nouer des relations intimes avec les êtres humains ? Dans des jeux comme les échecs, aucun humain ne peut espérer battre un ordinateur. Que se passera-t-il lorsque la même chose se produira dans le domaine de l'art, de la politique ou de la religion ?

L'I.A. pourrait rapidement manger l'ensemble de la culture humaine - tout ce que nous avons produit pendant des milliers d'années -, le digérer et commencer à déverser un flot de nouveaux artefacts culturels. Pas seulement des dissertations scolaires, mais aussi des discours politiques, des manifestes idéologiques, des livres saints pour de nouveaux cultes. En 2028, la course à la présidence des États-Unis pourrait ne plus être menée par des humains.

Pendant des milliers d'années, nous, les humains, avons vécu dans les rêves d'autres humains. Nous avons vénéré des dieux, poursuivi des idéaux de beauté et consacré notre vie à des causes nées de l'imagination d'un prophète, d'un poète ou d'un homme politique. Bientôt, nous vivrons également à l'intérieur des hallucinations d'une intelligence non humaine.

Les médias sociaux ont été le premier contact entre l'I.A. et l'humanité, et l'humanité a perdu. Le premier contact nous a donné le goût amer des choses à venir.

Bien que très primitive, l'I.A. derrière les médias sociaux était suffisante pour créer un rideau d'illusions qui a accru la polarisation de la société, miné notre santé mentale et défait la démocratie. Des millions de personnes ont confondu ces illusions avec la réalité. Les États-Unis disposent de la meilleure technologie de l'information de l'histoire, et pourtant les citoyens américains ne parviennent plus à se mettre d'accord sur l'identité des vainqueurs des élections.

Les grands modèles de langage sont notre deuxième contact avec l'I.A. Nous ne pouvons pas nous permettre de perdre à nouveau.

La démocratie est une conversation, la conversation repose sur le langage, et lorsque le langage lui-même est piraté, la conversation s'interrompt et la démocratie devient intenable. Si nous attendons que le chaos s'installe, il sera trop tard pour y remédier.

Mais une question peut subsister dans nos esprits : Si nous n'allons pas aussi vite que possible, l'Occident ne risque-t-il pas de perdre face à la Chine ? Non. Le déploiement et l'enchevêtrement d'IA incontrôlées dans la société, libérant des pouvoirs divins découplés de toute responsabilité, pourraient être la raison même de la défaite de l'Occident face à la Chine.

Nous avons convoqué une intelligence extraterrestre. Nous ne savons pas grand-chose d'elle, si ce n'est qu'elle est extrêmement puissante et qu'elle nous offre des cadeaux éblouissants, mais qu'elle pourrait aussi s'attaquer aux fondements de notre civilisation. Nous appelons les dirigeants du monde à répondre à ce moment à la hauteur du défi qu'il représente. La première étape consiste à gagner du temps pour adapter nos institutions du XIXe siècle à un monde d'intelligence artificielle et pour apprendre à maîtriser l'intelligence artificielle avant qu'elle ne nous maîtrise.

Yuval Noah Harari est historien, auteur de "Sapiens", "Homo Deus" et "Unstoppable Us", et fondateur de la société à impact social Sapienship. Tristan Harris et Aza Raskin sont les fondateurs du Center for Humane Technology et co-animateurs du podcast "Your Undivided Attention".

  • Upvote (+1) 2
Lien vers le commentaire
Partager sur d’autres sites

il y a 17 minutes, Conan le Barbare a dit :

Elle va faire quoi l’IA quand tu débranche la prise ?

Elle se sera rendue "indispensable" en rendant des services "utiles", et elle aura suffisamment de supporters pour plaider sa cause. Regarde la difficulté qu'a le gouvernement américain pour débrancher la prise de tik-tok.

  • Merci (+1) 1
  • Upvote (+1) 3
Lien vers le commentaire
Partager sur d’autres sites

Il y a 2 heures, Conan le Barbare a dit :

C’EST L’APOCALYPSE !!!! REPENTEZ VOUUUUUUUUUUUUUUUUS !!!!!! VOUS BRULEREZ DANS LES FLAMES DE FIREFOX !!!!!!!!!!

 

Elle va faire quoi l’IA quand tu débranche la prise ?

Panneaux solaires intelligente et ecolo, apres tu devras assombrir le ciel pour débrancher. 
mais t’as jamais vu matrix ?

  • Haha (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Je suis super déçu, personne n'a réagi à ma blague sur la bande son de Terminator ( bon, après, à l'écrit, ptet que c'était impossible à reconnaître aussi :bloblaugh: ).

 

Edit: bon du coup, vu que visiblement la transcription écrite de musique, c'est vraiment pas mon point fort, je vous la mets ( et si vous n'avez pas vu ce film, faites le toute affaire cessante ).

 

 

Modifié par Niafron
  • Haha (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Il y a 12 heures, g4lly a dit :

En général elle te débranche avant que tu ne la débranche ...

Voir la série Person of interest et comment malgré toutes les "sécurités humaines" l'IA s'est évaporé/dilué pour se reconstituer ailleurs par tous les moyens à sa disposition !
La science-fiction n'en est plus une et ceux qui bossent dans le domaine à son développement commencent à entrevoir la "no limit"  dans sa capacité d'apprentissages/compréhensions si elle reste connecté au monde entier.  

Lien vers le commentaire
Partager sur d’autres sites

Il y a 3 heures, Tyrex a dit :

Je n'ai plus le titre du livre en tête mais l'IA s'est suicider car elle ne voulait plus gérer les problèmes de l'humanité.

Mon bouton de sonnette m'a fait le même coup l'autre jour. il s'est suicidé parce qu'il supportait plus son boulot alors qu'il rêvait de devenir musicien dans un orchestre.

Modifié par nemo
  • Haha (+1) 2
Lien vers le commentaire
Partager sur d’autres sites

il y a 47 minutes, Fanch a dit :

La raison de son suicide est son mal être. Ce n'est peut-être même pas son eco anxiété n'est pas la cause de sa dépression. Bref encore une recherche de bouc émissaire.

Lien vers le commentaire
Partager sur d’autres sites

1 hour ago, Tyrex said:

La raison de son suicide est son mal être. Ce n'est peut-être même pas son eco anxiété n'est pas la cause de sa dépression. Bref encore une recherche de bouc émissaire.

T'es psychiatre? De toute évidence non :bloblaugh:

Lien vers le commentaire
Partager sur d’autres sites

Le 17/04/2023 à 21:29, Conan le Barbare a dit :

C’EST L’APOCALYPSE !!!! REPENTEZ VOUUUUUUUUUUUUUUUUS !!!!!! VOUS BRULEREZ DANS LES FLAMES DE FIREFOX !!!!!!!!!!

 

Elle va faire quoi l’IA quand tu débranche la prise ?

Créer A.I.-defense.net peut-être?

Vu qu'apparemment certains ici n'arrivent pas à "débrancher"...

Modifié par Patrick
Lien vers le commentaire
Partager sur d’autres sites

Il y a 8 heures, Tyrex a dit :

La raison de son suicide est son mal être. Ce n'est peut-être même pas son eco anxiété n'est pas la cause de sa dépression. Bref encore une recherche de bouc émissaire.

lol

C'est marrant comme idée en plus ça peut s'appliquer dans quasi tous les cas :

-un lycéen qui se suicide car critiqué sur les réseaux sociaux : c'est son mal être

-un type qui se pend car burn out : c'est son mal être

-un policier, paysan qui se suicide, idem

-...

Faut même aller plus loin, c'est carrément de leur faute à tous ces faibles ; ils ont perdu la vie, ils avaient qu'à mieux la ranger.

  • Merci (+1) 2
  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

il y a 4 minutes, Fanch a dit :

lol

C'est marrant comme idée en plus ça peut s'appliquer dans quasi tous les cas :

-un lycéen qui se suicide car critiqué sur les réseaux sociaux : c'est son mal être

-un type qui se pend car burn out : c'est son mal être

-un policier, paysan qui se suicide, idem

-...

Faut même aller plus loin, c'est carrément de leur faute à tous ces faibles ; ils ont perdu la vie, ils avaient qu'à mieux la ranger.

Franchement je ne suis pas sur que ce soit important de lui répondre. On approche du niveau trollesque quand même 

  • Merci (+1) 1
  • Upvote (+1) 3
Lien vers le commentaire
Partager sur d’autres sites

Pour les gens que ça intéresse, on a abordé le débat psychiatrie contre antipsychiatrie/ cause individuelle contre cause sociétale dans le fil santé dernièrement. Voir les deux dernières pages :

http://www.air-defense.net/forum/topic/19084-santé-publique-ressource-stratégique/page/26/  (à partir du 15 mars)

http://www.air-defense.net/forum/topic/19084-santé-publique-ressource-stratégique/page/27/

 

  • Merci (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

22 mars 2023. Sébastien Bubeck, sorti de l'ENS Cachan, anciennement prof à Stanford, travaille aujourd'hui chez Microsoft, si j'ai bien compris, dans l'équipe chargée d'intégrer GPT4 au moteur de recherche Bing. En tout cas il a passé beaucoup de temps avec GPT4, et il a testé sa "psychologie" et son intelligence, ses performances accrues par rapport à ChatGPT, ses erreurs aussi, et indique un certain nombre d'idées pour créer des versions améliorées. Ces observations, qualitatives, ont fait l'objet d'une prépublication intitulée : "Des étincelles d'intelligence générale artificielle : Premières expériences avec GPT-4" : https://arxiv.org/abs/2303.12712

 

Modifié par Wallaby
Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Restaurer la mise en forme

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

 Share

  • Statistiques des membres

    5 964
    Total des membres
    1 749
    Maximum en ligne
    Aquaromaine
    Membre le plus récent
    Aquaromaine
    Inscription
  • Statistiques des forums

    21,5k
    Total des sujets
    1,7m
    Total des messages
  • Statistiques des blogs

    4
    Total des blogs
    3
    Total des billets
×
×
  • Créer...