Aller au contenu
AIR-DEFENSE.NET

La technologie contre la démocratie ?


Messages recommandés

Il y a 9 heures, g4lly a dit :

Tu perds souvent tes deux parents dans la même succession ?!

En général un des deux survit il "hérite" de la communauté.

Quand le second décède l'abattement n'est alors que de 100.000 par enfants...

Le moindre pavillon pourri d'une ville paumé de province c'est déjà 300.000 ...

Et pour les donations du vivant il faut qu'elles soient faite plus de 15 ans avant le décès, tu as intérêt à bien programmer tes donation et bien programmer ton décès...

Sinon la donation est réinjecté dans la succession sans abattement associé.

En gros ça oblige à faire des montages du cosmos pour transférer démembré dés la majorité des gamins tout en gardant le bien sous le coude au besoin à grand coup de légue temporaires d'usufruit et autre.

En même temps c'est sympa ça fait travailler avocats et notaires.

 

 

Tu carricatures pas mal. Non le conjoint survivant n’herite pas, ce sont les enfants qui héritent du parent décédé, et comme le dit Boule75 dans la plupart des cas le conjoint survivant garde l’usufruit. Les donations sont faciles à programmer, j’ai donné ma maison à mes enfants avant 61 ans car cela apportait un abattement de 30% lié à la valeur de l’usufruit (donc un abattement de plus). N’importe quel notaire expliquera tout ça très bien.

Dans l’autre sens mon père nous avait fait une donation. A son décès, dès le lendemain sans aucune formalité nous avons pu organiser le vidage de l’appartement et la vente. 

Bref c’est très simple et à faire dès que tu as des enfants et un petit patrimoine.
 

Modifié par tipi
Lien vers le commentaire
Partager sur d’autres sites

22 minutes ago, tipi said:

Tu carricatures pas mal. Non le conjoint survivant n’herite pas, ce sont les enfants qui héritent du parent décédé

Sauf que dans la réalité et selon le regime matrimoniale... Le conjoint est protégé dans la communauté. Il est généralement le bénéficiaire de l'assurance vie. Peut conserver tout l'usufruit de la communauté... Donc la quasi-proprieté de toutes les valeurs en monétaire.

Et ça c'est dans le régime standard. Souvent on conseille au couple la donation au derniers des vivants, la communauté universelle etc.

Pour ce qui est de faire donation de l'habitation familiale avec réserve d'usufruit - on ne donne que la nue propriété - aux enfants avant 60 ans c'est rare... Et la donation sera réintégré dans la succession si tu décédes avant 76 ans ... Ce qui n'est pas si rare.

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Il y a 3 heures, g4lly a dit :

Pour ce qui est de faire donation de l'habitation familiale avec réserve d'usufruit - on ne donne que la nue propriété - aux enfants avant 60 ans c'est rare... Et la donation sera réintégré dans la succession si tu décèdes avant 76 ans ... Ce qui n'est pas si rare.

Non, là je crois que tu confonds. Une donation est toujours intégrée dans une succession, dans tous les cas. Mais d'une part elle donne lieu à un abattement de 100k€ par enfant et par parent, renouvelable tous les 15 ans (si tu décèdes 14 ans après la donation, tu perds la possibilité de refaire une donation avec un nouvel abattement l'année d'après, c'est tout, mais les 100k€ restent acquis), d'autre part si la donation porte sur un bien dont tu gardes l'usufruit, la valeur du bien bénéficie d'une décote dépendant de l'âge du donateur usufruitier: 50% avant 61 ans, 40% avant 71 ans, etc... Et si tu donnes à 60 ans et meurs à 61, ben tant mieux pour tes héritiers, ils gardent le bénéfice de la décote. En revanche le fisc ira probablement regarder ton état de santé au moment de la donation. Et si on t'avais déjà diagnostiqué le cancer qui t'emportera l'année suivante, il contestera la donation avec usufruit et la décote sera supprimée.

Mais on est peut être largement en HS, non ?

Modifié par tipi
  • Merci (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Il y a 1 heure, nikesfeld13 a dit :

un reportage majeur lié à ce théme

https://video.ploud.fr/w/4d35ad9a-6eac-4708-aa62-3b7540574071

 ARTE la fabrique de l'ignorance Reportage

2021

Cela fait écho au besoin d'une recherche publique forte, capable de publier ses propres analyses, indépendament des acteurs à but lucratif :

Le 23/03/2023 à 15:31, Wallaby a dit :

https://legrandcontinent.eu/fr/2022/11/18/prendre-la-mesure-de-lintelligence-artificielle/

[Du coût vertigineux du calcul] résulte une considérable asymétrie d’information entre universités publiques et centre de recherche privés, avec un effet de rétroaction pernicieux : étant les seuls à pouvoir produire les modèles les plus performants, les centre privés attirent les meilleurs talents et font la course seuls en tête. En particulier, l’écart entre la réalité de la technologie déployée dans l’industrie et la perception qu’en ont les décideurs publics s’est considérablement accru, au risque de concentrer le débat sur des chimères technologiques détournant des véritables problèmes sociétaux posés par l’IA.

Les entreprises privées entretiennent d’ailleurs un flou technologique sur les capacités réelles des modèles qu’elles développent : les publications scientifiques rigoureuses sont souvent concurrencées par de retentissants communiqués de presse, scientifiquement opaques.

Afin de rééquilibrer le rapport de force, l’université de Stanford a poussé l’idée d’un cloud national de recherche qui aurait vocation à fournir les ressources adéquates à la recherche publique.

-

https://hai.stanford.edu/policy/national-ai-research-resource

Tout au long de l'année 2020, Stanford HAI ("Human-Centered Artificial Intelligence") a mené des efforts avec 22 universités d'informatique de premier plan, ainsi qu'avec un groupe bipartisan et bicaméral de législateurs proposant une législation pour faire aboutir le National Research Cloud. Le 1er janvier 2021, le Congrès américain a autorisé le National AI Research Resource Task Force Act dans le cadre de la National Defense Authorization Act for Fiscal Year 2021. Cette loi prévoit la création d'un groupe de travail fédéral chargé d'étudier et de fournir une voie de mise en œuvre pour créer des ressources informatiques de classe mondiale et des ensembles de données gouvernementales robustes pour les chercheurs de tout le pays sous la forme d'une ressource nationale de recherche sur l'IA.

https://www.whitehouse.gov/ostp/news-updates/2023/01/24/national-artificial-intelligence-research-resource-task-force-releases-final-report/

La semaine dernière, le groupe de travail NAIRR (National AI Research Resource) a publié son rapport final et sa feuille de route pour la mise en place d'une infrastructure nationale d'IA comprenant des ressources informatiques, des données de haute qualité, des outils éducatifs et un soutien aux utilisateurs. Le rapport a été commandé par la loi sur l'initiative nationale en matière d'IA de 2020 (adoptée en 2021). La feuille de route prévoit de dépenser 2,6 milliards de dollars sur six ans pour créer NAIRR.

Modifié par Wallaby
  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

https://www.usine-digitale.fr/article/stanford-lance-detectgpt-un-outil-dedie-a-l-enseignement-superieur-vraiment-utile.N2094741 (30 janvier 2023)

Une équipe de chercheurs de l’Université américaine Stanford ont mis au point un nouveau système appelé DetectGPT, permettant de déterminer si un texte (en totalité ou en partie) a été généré par ChatGPT. L’outil est destiné aux professeurs.

ChatGPT a en effet du succès auprès des étudiants. À Lyon, le 10 janvier, le Progrès dévoilait que plus de 50% d’une classe avait utilisé le robot conversationnel dans un devoir. Les textes de la moitié des élèves présentaient des "similitudes troublantes" et étaient construits exactement de la même manière. L’enseignant en handicapologie, démuni, leur avait tout de même attribué la note de 11,75 sur 20.

Face à cette problématique, certains établissements interdisent l’utilisation de l’outil, à l’instar de l’ensemble des écoles publiques new-yorkaises. En France, c’est l'Institut d'études politiques (IEP) de Paris, Sciences Po, qui a ouvert la voie en annonçant cette nouvelle règle vendredi, dans une lettre adressée aux étudiants.

Début janvier, Edward Tian, un étudiant en informatique de l’Université de Princeton, avait lui aussi mis en ligne un outil dédié à identifier l’utilisation de ChatGPT dans un texte, baptisé GPTZero.

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

https://www.lebigdata.fr/stanford-copie-chatgpt-tout-savoir (23 mars 2023)

Stanford a développé une IA nommée Alpaca qui a montré des résultats identiques à ceux du modèle de langage ChatGPT. Toutefois, Alpaca a été développé à partir d’un modèle d’algorithme libre. Par conséquent, sa création a coûté moins de 600 dollars.

https://www.theregister.com/2023/03/21/stanford_ai_alpaca_taken_offline/

La démo web d'Alpaca, un petit modèle de langage basé sur le système LLaMA de Meta, a été mise hors ligne par des chercheurs de l'université de Stanford pour des raisons de sécurité et de coût.

L'accès aux grands modèles de langage contenant des centaines ou des dizaines de milliards de paramètres est souvent réservé aux entreprises qui disposent des ressources nécessaires pour les former et les faire fonctionner. Meta prévoyait de partager le code de son système LLaMA avec des chercheurs sélectionnés afin de stimuler la recherche sur les raisons pour lesquelles les modèles de langage génèrent des textes toxiques et faux. Meta espérait pouvoir le faire sans exiger des chercheurs qu'ils acquièrent d'énormes systèmes matériels.

Un groupe d'informaticiens de l'université de Stanford a peaufiné LLaMA pour développer Alpaca, un modèle open-source de sept milliards de paramètres dont la construction aurait coûté moins de 600 dollars. Le code a été publié la semaine dernière et a attiré l'attention des développeurs après que certains aient réussi à le faire fonctionner sur des ordinateurs Raspberry Pi et même sur un smartphone Pixel 6.

Lien vers le commentaire
Partager sur d’autres sites

https://www.lemonde.fr/idees/article/2023/03/22/le-solutionnisme-technologique-cette-foi-en-l-innovation-qui-evite-de-penser-le-changement_6166463_3232.html

La notion de solutionnisme technologique s’est imposée en 2014 dans le débat public, sous la plume du chercheur américain d’origine biélorusse Evgeny Morozov. Dans son ouvrage Pour tout résoudre, cliquez ici (FYP éditions, 2014), l’auteur met en lumière les impensés des projets prométhéens des entrepreneurs californiens du numérique qui ambitionnent de « réparer tous les problèmes de monde », selon les mots de l’ex-dirigeant de Google Eric Schmidt, en 2012.

Lien vers le commentaire
Partager sur d’autres sites

Le 27/03/2023 à 15:33, Wallaby a dit :

La vitesse de la révolution de l'intelligence artificielle en cours, est liée à l'innovation dans le domaine du matériel informatique, qui est une miniaturisation croissante des circuits électroniques, suivant ce qu'on appelle la "loi de Moore", une loi exponentielle non démentie jusqu'à présent qui dit qu'on double tous les deux ans le nombre de composants électriques par unité de surface sur une puce de silicium (et avec à peu près la même énergie consommée). C'est ainsi qu'on obtient les puissances de calcul vertigineuses auxquelles nous sommes confrontés, pour un coût qui, à puissance constante, est en chute libre.

https://www.lemonde.fr/economie/article/2023/03/26/mort-de-gordon-moore-entrepreneur-par-accident-et-cofondateur-d-intel_6167037_3234.html

Mort de Gordon Moore, entrepreneur « par accident » et cofondateur d’Intel. Personnage-clé dans l’invention du microprocesseur, ce chimiste de formation devenu milliardaire est mort chez lui, à Hawaï. Il avait 94 ans.

Dans son article de 1994, Moore révèle même n’avoir pas vu l’intérêt du PC : « Bien avant Apple, un de nos ingénieurs m’a suggéré de construire un ordinateur destiné à la maison. Je lui ai demandé : “Mais pourquoi quiconque voudrait-il un ordinateur pour sa maison ?” »

Lien vers le commentaire
Partager sur d’autres sites

https://openai.com/blog/planning-for-agi-and-beyond (24 février 2023)

La première intelligence artificielle générale (AGI) ne sera qu'un point sur le continuum de l'intelligence. Nous pensons qu'il est probable que les progrès se poursuivront à partir de là, et qu'il sera possible de maintenir pendant une longue période le rythme de progression que nous avons observé au cours de la dernière décennie. Si c'est le cas, le monde pourrait devenir extrêmement différent de ce qu'il est aujourd'hui, et les risques pourraient être extraordinaires. Une AGI superintelligente mal alignée pourrait causer de graves dommages au monde ; un régime autocratique doté d'une superintelligence décisive pourrait également le faire.

L'IA capable d'accélérer la science est un cas particulier qui mérite réflexion et qui a peut-être plus d'impact que tout le reste. Il est possible qu'une IA suffisamment capable d'accélérer ses propres progrès entraîne des changements majeurs à une vitesse surprenante (et même si la transition commence lentement, nous nous attendons à ce qu'elle se produise assez rapidement dans les phases finales). Nous pensons qu'un décollage plus lent est plus facile à sécuriser, et la coordination des efforts de l'AGI pour ralentir à des moments critiques sera probablement importante (même dans un monde où nous n'avons pas besoin de le faire pour résoudre des problèmes d'alignement technique, il peut être important de ralentir pour donner à la société suffisamment de temps pour s'adapter).

Réussir la transition vers un monde doté d'une superintelligence est peut-être le projet le plus important, le plus prometteur et le plus effrayant de l'histoire de l'humanité.

Sam Altman

Lien vers le commentaire
Partager sur d’autres sites

10 hours ago, tipi said:

Non, là je crois que tu confonds. Une donation est toujours intégrée dans une succession, dans tous les cas. Mais d'une part elle donne lieu à un abattement de 100k€ par enfant et par parent, renouvelable tous les 15 ans (si tu décèdes 14 ans après la donation, tu perds la possibilité de refaire une donation avec un nouvel abattement l'année d'après, c'est tout, mais les 100k€ restent acquis), d'autre part si la donation porte sur un bien dont tu gardes l'usufruit, la valeur du bien bénéficie d'une décote dépendant de l'âge du donateur usufruitier: 50% avant 61 ans, 40% avant 71 ans, etc... Et si tu donnes à 60 ans et meurs à 61, ben tant mieux pour tes héritiers, ils gardent le bénéfice de la décote. En revanche le fisc ira probablement regarder ton état de santé au moment de la donation. Et si on t'avais déjà diagnostiqué le cancer qui t'emportera l'année suivante, il contestera la donation avec usufruit et la décote sera supprimée.

Mais on est peut être largement en HS, non ?

La décote n'est pas une décote c'est l'appréciation de la valeur de en la nue propriété par rapport à la valeur de la pleine propriété.

Cette valeur est donc la valorisation de la donation.

Une maison a 1000000 dont la nue propriété est donné à 60 ans représente une donation de 700.000 € ... Sur laquelle on applique un abattement de 100.000€ pour calculer la par imposable. Soit 600.000 avec une première tranche à 20% pour les 500 premier mille puis 30% ici. Soit 130000 de droit de succession.

Sauf que si ton donateur donne a 61 ans et meure moins de 15 ans plus tard ... Les donation des 15 dernière année sont réintégré dans la donation finale.

Tu perds alors l'abattement de 100.000€ sur le "reliquat" de succession au décès...

En gros l'avantage fiscal de l'abattement lors de la donation de son vivant est perdu.

Si la succession finale s'élève à 100.000€ tu deviens alors redevable au premier euro... Soit a nouveau 20.000 de droit de succession...

Et pour que ça fonctionne il faut qu'au moment de la donation initiale tu trouve effectivement les 130.000 a donner aux impots ... Pour un bien qui ne sera peut être disponible que dans 30 ans. Je t'épargne le calcul des intérêts nus de 130000 sur 30 ans même adossé a un bien hypothecable.

Donc idéalement il fait faire une double donation. La nue propriété de la baraque plus les 150.000€ de droit de succession. Ce qui rend la transaction indolore pour le donataire.

C'est la même chose pour la transmission d'entreprises il faut a la fois transmettre l'entreprise plus les fonds permettant de régler l'impôt sur la succession associé.

En gros mobiliser 30 à 45% - dans le meilleur des cas - de la valo de la succès utile ... En succession liquide ... Juste pour que la succession soit sans charge associé.

C'est ce que font la plupart des gens qui ont les moyens... Mais ça demande pas mal d'aisance financière quand même.

 

  • Upvote (+1) 2
Lien vers le commentaire
Partager sur d’autres sites

Il y a 8 heures, g4lly a dit :

La décote n'est pas une décote c'est l'appréciation de la valeur de en la nue propriété par rapport à la valeur de la pleine propriété.

Cette valeur est donc la valorisation de la donation.

Une maison a 1000000 dont la nue propriété est donné à 60 ans représente une donation de 700.000 € ... Sur laquelle on applique un abattement de 100.000€ pour calculer la par imposable. Soit 600.000 avec une première tranche à 20% pour les 500 premier mille puis 30% ici. Soit 130000 de droit de succession.

Sauf que si ton donateur donne a 61 ans et meure moins de 15 ans plus tard ... Les donation des 15 dernière année sont réintégré dans la donation finale.

Tu perds alors l'abattement de 100.000€ sur le "reliquat" de succession au décès...

En gros l'avantage fiscal de l'abattement lors de la donation de son vivant est perdu.

Si la succession finale s'élève à 100.000€ tu deviens alors redevable au premier euro... Soit a nouveau 20.000 de droit de succession...

Et pour que ça fonctionne il faut qu'au moment de la donation initiale tu trouve effectivement les 130.000 a donner aux impots ... Pour un bien qui ne sera peut être disponible que dans 30 ans. Je t'épargne le calcul des intérêts nus de 130000 sur 30 ans même adossé a un bien hypothecable.

Donc idéalement il fait faire une double donation. La nue propriété de la baraque plus les 150.000€ de droit de succession. Ce qui rend la transaction indolore pour le donataire.

C'est la même chose pour la transmission d'entreprises il faut a la fois transmettre l'entreprise plus les fonds permettant de régler l'impôt sur la succession associé.

En gros mobiliser 30 à 45% - dans le meilleur des cas - de la valo de la succès utile ... En succession liquide ... Juste pour que la succession soit sans charge associé.

C'est ce que font la plupart des gens qui ont les moyens... Mais ça demande pas mal d'aisance financière quand même.

 

Comment ne pas penser, ce ´dredi, au jus de fruit des 3 frères ?

 « Ah ! Vous avais-je fait part du codicille susmentionné par votre maman ??? »

 

  • Haha (+1) 4
Lien vers le commentaire
Partager sur d’autres sites

https://www.politico.eu/article/italian-privacy-regulator-bans-chatgpt/ (31 mars 2023)

L'autorité italienne de régulation de la vie privée a ordonné vendredi l'interdiction de ChatGPT en raison de violations présumées de la vie privée.

L'autorité nationale de protection des données a déclaré qu'elle bloquerait immédiatement et enquêterait sur OpenAI, la société américaine à l'origine du populaire outil d'intelligence artificielle, afin qu'elle ne traite pas les données des utilisateurs italiens. L'ordonnance est temporaire jusqu'à ce que l'entreprise respecte la loi historique de l'UE sur la protection de la vie privée, le règlement général sur la protection des données (RGPD).

  • Upvote (+1) 2
Lien vers le commentaire
Partager sur d’autres sites

il y a 13 minutes, nikesfeld13 a dit :

Pour chatGPT c'est déjà trop tard, je parie que les états parient sur une rupture sociétale pour faire une épuration de la dette...

Et c'est grave ?

(un exposé succin du raisonnement qui sous-tend ta phrase permettrait peut-être d'éclairer le sens de celle-ci)
"ChatGpt : j'ai besoin d'un one-liner qui claque."

  • Haha (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

L'outil a été rendu public, comme internet cela va changer les modalité de travail, l'économie et l'affectation du capital etc.

Bref comme cela a été le cas pour la machine à vapeur, cela va modifier la société.

 

Par cette destruction créatrice les états, maitres de leurs monnaies, et surtout de leurs dettes, vont pouvoir la purger par de la destruction monétaire.

Modifié par nikesfeld13
  • Confus 1
Lien vers le commentaire
Partager sur d’autres sites

https://www.01net.com/actualites/continuer-a-developper-des-ia-va-mener-a-la-disparition-de-lhumanite.html (30 mars 2023)

Dans une tribune publiée sur le site du Time Magazine [1], un chercheur et théoricien spécialisé dans l’intelligence artificielle explique les risques liés au développement trop rapide de l’IA. Il n’hésite pas à évoquer la possibilité d’une disparition de l’humanité.

Alors que des centaines de scientifiques réclament une pause d’au moins six mois dans les recherches sur l’IA, Yudkowsky invite les dirigeants et experts du secteur à tout arrêter pour une durée indéterminée, sous peine de franchir un seuil critique au-delà duquel il sera impossible de revenir en arrière. Pour le chercheur américain, « il est tout à fait possible qu’un laboratoire de recherche franchisse des lignes critiques sans s’en apercevoir ».

Selon lui, cette « ligne critique » est représentée par le développeur d’une IA à l’intelligence surhumaine qui mènerait, dans les circonstances actuelles, à la fin de l’humanité.

Pour illustrer la situation dans laquelle se retrouverait l’humanité, le scientifique utilise plusieurs métaphores. Deux d’entre elles sont « l’australopithèque essayant de combattre l’Homo sapiens » et « le 11ᵉ siècle essayant de combattre le 21ᵉ siècle ».

« L’intention ouvertement déclarée d’OpenAI est de faire en sorte que certaines futures IA fassent nos devoirs d’alignement de l’IA. Le simple fait d’entendre ce plan devrait suffire à faire paniquer toute personne sensée. L’autre grand laboratoire d’IA, DeepMind, n’a aucun plan. »

Pour le chercheur, le moratoire sur l’intelligence artificielle doit être indéfini et mondial, sans aucune exception, y compris pour les gouvernements ou les militaires.

« Nous ne sommes pas sur la bonne voie pour être préparés dans un délai raisonnable. Il n’y a pas de plan. Les progrès dans les capacités de l’IA sont largement en avance sur les progrès de l’alignement de l’IA ou même sur les progrès dans la compréhension de ce qui se passe à l’intérieur de ces systèmes. Si nous faisons cela, nous allons tous mourir. Fermez tout. »

[1] https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/ (29 mars 2023)

 

Modifié par Wallaby
  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

18 hours ago, nikesfeld13 said:

... comme internet ...

Internet n'a pas changé grand chose en vrai ... ça a juste accéléré des choses ... la société fonctionne grosso modo pareille avant et après la démocratisation d'internet ... les échanges dématérialisé vont juste plus vite.

  • Merci (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

25 mars 2023 - Interview de Sam Altman par Lex Fridman

01:10:53 Il y aura bientôt un grand nombre de LLM [large language models] open source performants, avec très peu ou pas de contrôles de sécurité.

01:41:34 les deux principaux changements seront que le coût de l'intelligence et le coût de l'énergie vont, au cours des deux prochaines décennies, chuter de façon spectaculaire par rapport à ce qu'ils sont aujourd'hui.

Je souligne ces deux phrases, la première qui montre qu'il est bien conscient des dérives possibles, mais qu'il a tendance à les voir plutôt chez les autres, en soulignant que chez lui ils prendront un maximum de précautions.

La deuxième phrase explique pourquoi sa vision du monde est très optimiste, très utopique et pas ou peu dystopique : il croit que le prix de l'énergie va baisser ! Est-ce parce qu'il croit à un décollage imminent de la fusion nucléaire ? Il me semble qu'il y a une voire plusieurs startups de Y Combinator qui travaillent sur cette source d'énergie. Avec ce genre de scénario en rose, c'est plus facile d'être moins inquiet d'une explosion sociale causée par exemple par les pertes d'emplois.

  • Upvote (+1) 2
Lien vers le commentaire
Partager sur d’autres sites

https://techpolicy.press/can-tech-promote-social-cohesion/ (3 avril 2023)

Une communauté émergente d'ingénieurs et de penseurs s'investit dans l'idée que le pouvoir des plateformes technologiques d'attiser les divisions pourrait au contraire être utilisé pour promouvoir la cohésion sociale, si la conception de leurs systèmes peut être repensée dans ce sens. Si des plateformes telles que Facebook et Twitter ont contribué à des phénomènes tels que la polarisation, elles peuvent peut-être, elles ou leurs successeurs, faire le contraire.  

Quelques centaines de personnes intéressées par l'exploration de cette hypothèse se sont réunies à San Francisco en février pour la conférence inaugurale "Designing Tech for Social Cohesion".

Certaines suggestions, telles que la taxation des résultats polarisants ou l'obligation d'utiliser des algorithmes de rapprochement, semblaient peu plausibles, mais n'ont pas été contestées. Le seul moment de prudence est survenu lorsque Deepanjalie Abeywardana, de Verité Research, basé au Sri Lanka, a fait remarquer que les régimes autoritaires ont cité les réglementations sur les médias sociaux adoptées dans les démocraties libérales pour justifier l'élaboration de leurs propres lois draconiennes.

Cependant, il n'est pas encore évident de déterminer la part de responsabilité de la technologie dans les niveaux actuels de polarisation toxique, ni l'efficacité avec laquelle elle peut inverser cette tendance. En outre, dans le climat politique actuel, où les entreprises de médias sociaux sont sous le feu des critiques des républicains pour leur supposée ingérence politique, il est difficile d'imaginer les dirigeants de Meta, Twitter ou TikTok défendre des pratiques destinées à manipuler le discours politique à grande échelle, même s'il s'agit de pratiques prosociales.

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

17 minutes ago, collectionneur said:

@Wallaby C'est le but à l'origine d'internet et des réseaux sociaux, rapprocher les gens et faire un ''village global'', que cela à dérapé dés que tout le monde a son téléphone étant pourtant avec le recul prévisible car n'ayant aucun filtre au départ au contraire des forums classiques.

Internet n'est qu'un outil ... c'est la fascination pour l'extimité qui à changé la donne ... fascination qui elle même à alimenté massivement la rivalité mimétique ...

 

  • Merci (+1) 1
  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Un résumé de la doctrine d'Eliezer Yudkowsky :

https://www.lesswrong.com/posts/Wic2P2bGejbFH3Sxb/summary-of-agi-ruin-a-list-of-lethalities (11 juin 2022)

Pourquoi nous devons résoudre le problème d'alignement de l'IA

Les IA peuvent être beaucoup plus intelligentes que les humains et utiliser les informations de manière beaucoup plus efficace que les humains lorsqu'elles prennent des décisions ou se forgent des convictions sur le monde. Par exemple, AlphaZero a appris à devenir un surhomme au jeu de Go en seulement quelques jours.

Une IA mal alignée et plus intelligente que les humains pourrait provoquer l'extinction de l'humanité. L'IA n'aurait pas besoin d'un corps de robot pour être dangereuse, car elle pourrait convaincre un ou plusieurs humains d'exécuter ses plans ou pirater l'infrastructure humaine pour l'utiliser. L'IA pourrait inventer des technologies dangereuses, telles que les nanotechnologies avancées, contre lesquelles nous ne pourrions pas nous défendre.

Il y a beaucoup de matériel informatique dans le monde, comme les GPU, et de nombreuses personnes y ont accès. Les logiciels et le matériel d'IA ne cessent de s'améliorer et il serait très difficile d'arrêter complètement le progrès dans ces domaines, car il faudrait que tout le monde se mette d'accord pour ne pas progresser dans ces domaines.

De nombreux acteurs travaillent à la recherche sur l'AGI [intelligence générale artificielle] et même si un ou plusieurs d'entre eux s'abstiennent de progresser, les autres acteurs peuvent toujours continuer à créer l'AGI. Si de nombreuses organisations décidaient d'arrêter de travailler sur l'AGI, le rythme des progrès ne ferait que ralentir.

Au départ, l'organisation leader aura la capacité de créer une AGI. Une fois cette étape franchie, des organisations plus faibles seront également en mesure de créer des AGI. Pendant cette période, l'organisation leader n'aura peut-être pas beaucoup de temps pour résoudre le problème de l'alignement de l'IA, qui consiste à s'assurer que l'IA agit de manière bénéfique et en accord avec les valeurs humaines.

Une AGI suffisamment intelligente pour inventer un remède contre le cancer pourrait également être suffisamment intelligente pour inventer des technologies qui entraîneraient l'extinction de l'humanité, tout comme les humains ont été suffisamment intelligents pour inventer à la fois la chimiothérapie et les bombes nucléaires.

Par conséquent, une AGI utile ne sera pas passivement sûre : elle aura la capacité de détruire le monde et nous aurons besoin de mesures de sécurité pour nous assurer qu'elle continue à être bénéfique, tout comme un réacteur nucléaire utile a besoin de mécanismes de sécurité pour éviter un accident avec fusion du coeur.

Il sera probablement très difficile de rendre l'AGI sûre pour les raisons suivantes :

1- Nous disposons d'un temps limité pour résoudre le problème : nous devrons probablement résoudre le problème de l'alignement de l'IA avant que l'AGI ne soit créée. Le temps dont nous disposons est inconnu.

2- Nous n'aurons probablement qu'une seule chance de résoudre le problème de l'alignement de l'IA : les problèmes des systèmes infra-AGI peuvent être détectés et corrigés. Mais il ne sera peut-être pas possible de programmer une IA plusieurs fois, car une IA mal alignée pourrait vous tuer avant que vous ne puissiez prendre d'autres mesures.

Le problème de l'alignement de l'IA serait déjà très difficile avec l'une ou l'autre de ces limitations mais il semble que les deux s'appliquent simultanément. La science a l'habitude de résoudre des problèmes difficiles avec un nombre illimité de tentatives et beaucoup de temps, mais il ne semble pas que nous ayons l'un ou l'autre de ces avantages pour résoudre le problème de l'alignement de l'IA.

Si une IA faible produit un résultat nuisible, ce résultat peut être qualifié de négatif et l'IA peut apprendre à ne plus le produire. Toutefois, cette technique ne fonctionnerait pas avec une AGI, car elle pourrait être suffisamment puissante pour produire un résultat qui tuerait ses opérateurs avant qu'ils ne puissent donner leur avis sur le résultat.

Au lieu de cela, nous pourrions avoir besoin de trouver des solutions d'alignement qui fonctionnent pour une IA faible et qui se généralisent à l'IA surhumaine. Le problème est que le passage d'une intelligence sous-humaine à une intelligence surhumaine est un changement de distribution important qui peut briser de nombreuses techniques d'alignement. Certaines faiblesses d'une solution d'alignement peuvent ne pas être visibles à de faibles niveaux d'intelligence et ne se matérialiser qu'une fois que l'IA atteint la superintelligence. Par conséquent, une IA pourrait se comporter de manière sûre au début, mais ne devenir dangereuse qu'après avoir atteint la superintelligence.

Par exemple, un comportement coopératif est un signal fiable indiquant qu'une IA est coopérative lorsque l'IA est faible. Mais cette règle n'est plus vraie lorsque l'IA atteint la superintelligence, car une IA superintelligente aurait la capacité de tromper ses opérateurs humains et de paraître alignée alors qu'elle est en réalité mal alignée.

Plusieurs IA conçues pour coopérer entre elles et avec l'humanité pourraient ne coopérer qu'avec elles-mêmes et exclure l'humanité si celle-ci est le membre le moins intelligent du groupe.

Actuellement, nous ne savons pas ce que pensent les IA. Nous ne savons pas comment inspecter les IA pour y déceler des motifs dangereux.

L'optimisation contre les pensées non alignées permet d'optimiser les pensées alignées, mais aussi la capacité à cacher les pensées non alignées ou à réduire l'interprétabilité.

Nous pourrions ne pas être en mesure d'évaluer les pensées ou les projets d'une IA plus intelligente ou plus complexe que nous.

Les schémas de pensée d'une IA peuvent être si bizarres et si étranges qu'il nous est impossible de les comprendre.

Nous n'avons actuellement aucun plan pour résoudre le problème de l'alignement de l'IA. Si nous étions dans un monde ayant des chances de survivre, nous en aurions déjà créé un il y a plusieurs décennies.

Modifié par Wallaby
  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Restaurer la mise en forme

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

 Share

  • Statistiques des membres

    5 966
    Total des membres
    1 749
    Maximum en ligne
    Aure-Asia
    Membre le plus récent
    Aure-Asia
    Inscription
  • Statistiques des forums

    21,5k
    Total des sujets
    1,7m
    Total des messages
  • Statistiques des blogs

    4
    Total des blogs
    3
    Total des billets
×
×
  • Créer...