Aller au contenu
AIR-DEFENSE.NET

L'emploi de 3 millions de salariés menacé par les robots d'ici 2025


zx
 Share

Messages recommandés

Soit dit en passant, peut être avez vous vus: http://www.slate.fr/story/115861/roman-prix-litteraire-japonais

A termes, il est assez facilement envisageable de penser que des ordinateurs pourront effectivement réaliser un travail journalistique (La méthode utilisée pour écrire le bouquin est certes triviale, mais elle pourrait d'ores et déjà s'appliquer en journalisme - pour réaliser de cours flash d'informations, ou éventuellement accélérer la rédaction d'articles). 

Modifié par Daj
Lien vers le commentaire
Partager sur d’autres sites

  • 3 weeks later...

Pour le moment, dans la restauration chinoise, c'est mal barré :)

En Chine, des robots serveurs licenciés pour incompétence

http://www.liberation.fr/futurs/2016/04/07/en-chine-des-robots-serveurs-licencies-pour-incompetence_1444585

A quand des syndicats robotiques pour lutter contre les licenciements abusifs ?

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

1 minute ago, Kiriyama said:

Ou des manifestations avec des robots casseurs...

Il y a justement un article intéressant sur la robotisation dans Alternatives économiques. D'après ce qu'ils disent peu de professions seront totalement robotisée à brève ou moyenne échéance.

Chauffeur ...

Lien vers le commentaire
Partager sur d’autres sites

Les IA lâchés sur internet aussi ne sont pas très au point. Microsoft avait mis en ligne la sienne, du nom de Tay . Elle devait interagir avec les internautes et apprendre d'eux.

Au début tout ce passe bien et le programme fait tout son possible pour rester politiquement correct, mais au bout de quelques heures elle s'est mise à raconter des saloperies racistes et négationnistes.

Le truc c'est que des internautes se sont coordonnés pour influencer son apprentissage dans le mauvais sens. Finalement le danger c'est pas les machines, c'est les Hommes qui sont complémentent cinglés....

 

http://www.lemonde.fr/pixels/article/2016/03/24/a-peine-lancee-une-intelligence-artificielle-de-microsoft-derape-sur-twitter_4889661_4408996.html 

 

http://www.lexpress.fr/actualite/sciences/intelligence-artificielle-microsoft-supprime-son-compte-devenu-fan-d-hitler_1776756.html 

Titre : "Intelligence" artificielle: Microsoft suspend son compte devenu fan d'Hitler

Modifié par Shorr kan
  • Upvote (+1) 3
Lien vers le commentaire
Partager sur d’autres sites

 

Il y a encore du boulot d'éducation avant que les IA soient nos amies :
http://www.futura-sciences.com/magazines/high-tech/infos/actu/d/robotique-sophia-robot-veut-detruire-humanite-62142/

A l’issue de l’entretien avec CNBC, son concepteur demande à Sophia : « Est-ce que tu veux détruire les humains ? S’il te plaît, dis non », implore-t-il. Et Sophia de répondre avec le sourire « OK, je détruirai les humains ». Plutôt gênant pour une machine censée devenir une amie… « Notre mission est de créer un avenir meilleur pour l’humanité en insufflant de la gentillesse et de la compassion dans l’intelligence artificielle », peut-on lire sur le site Web de Hanson Robotics. Visiblement, Sophia n’a pas encore appris cet argumentaire.

 

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Il va falloir intégrer les 3 lois de la Robotique, avant que ca évolue vers la version Cylon

Citation

 

un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger ;

un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;

un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.

 Isaac Asimov

 

Modifié par zx
Lien vers le commentaire
Partager sur d’autres sites

Le 15/4/2016 à 16:01, Shorr kan a dit :

http://www.lexpress.fr/actualite/sciences/intelligence-artificielle-microsoft-supprime-son-compte-devenu-fan-d-hitler_1776756.html 

Titre : "Intelligence" artificielle: Microsoft suspend son compte devenu fan d'Hitler

Comme ils le disent dans l'article, ce n'est pas demain que le test de Turing sera réussi !

 

il y a 49 minutes, Ojs.Fisher a dit :

Qu'est-ce qu'il se passerait si un humain menace un autre humain devant le robot et que l'humain en danger ordonne a ce dernier de neutraliser l'agresseur ? :)

Si le sujet t'intéresse, il faut que tu lises Les Robots, et autres recueils de nouvelles d'Isaac Asimov sur le sujet. Il y a exploré dans de nombreux courts récits les conséquences de ces Trois Lois.

Bien des histoires se présentent comme des énigmes. Connaissant les trois lois, un robot n'aurait pas du pouvoir agir comme il l'a fait. L'histoire se présente comme un dévoilement progressif de la solution - c'est que les robots ne se contentent pas d'être soumis à ces trois lois, ce sont aussi de redoutables logiciens, capables d'en tirer des conséquences... inattendues. :smile:

 

  • Upvote (+1) 4
Lien vers le commentaire
Partager sur d’autres sites

10 hours ago, Alexis said:

Comme ils le disent dans l'article, ce n'est pas demain que le test de Turing sera réussi !

 

Si le sujet t'intéresse, il faut que tu lises Les Robots, et autres recueils de nouvelles d'Isaac Asimov sur le sujet. Il y a exploré dans de nombreux courts récits les conséquences de ces Trois Lois.

Bien des histoires se présentent comme des énigmes. Connaissant les trois lois, un robot n'aurait pas du pouvoir agir comme il l'a fait. L'histoire se présente comme un dévoilement progressif de la solution - c'est que les robots ne se contentent pas d'être soumis à ces trois lois, ce sont aussi de redoutables logiciens, capables d'en tirer des conséquences... inattendues. :smile:

 

Merci, j'y jetterai un coup d’œil à l'occasion.

Lien vers le commentaire
Partager sur d’autres sites

Le 26/04/2016 à 23:54, Alexis a dit :

Comme ils le disent dans l'article, ce n'est pas demain que le test de Turing sera réussi !

Là dessus, je serait pas si catégorique. Autant je pense qu'on a encore un bon bout de chemin pour voir arriver une "vraie" intelligence  artificielle, autant pondre un truc qui émule correctement une conversation humaine, je pense qu'on en est pas si loin.

Pour passer le test, une "vrai" intelligence n'est même pas forcément requise, il suffit d'un truc capable d'apprendre et de s'améliorer, et qui va bêtement apprendre par cœur toutes les réponses à toues les questions jusqu'à passer le test. 

Les chatbot, les truc façon siri / cortana, les serveur vocaux, watson, tout ces machins s'améliorent continuellement, on doit pas être si loin du moment où un utilisateur lambda non prévenu qu'il a peut être un bot face à lui se fera avoir régulièrement.

 

Lien vers le commentaire
Partager sur d’autres sites

il y a 3 minutes, Kineto a dit :

Là dessus, je serait pas si catégorique. Autant je pense qu'on a encore un bon bout de chemin pour voir arriver une "vraie" intelligence  artificielle, autant pondre un truc qui émule correctement une conversation humaine, je pense qu'on en est pas si loin.

Pour passer le test, une "vrai" intelligence n'est même pas forcément requise, il suffit d'un truc capable d'apprendre et de s'améliorer, et qui va bêtement apprendre par cœur toutes les réponses à toues les questions jusqu'à passer le test. 

Les chatbot, les truc façon siri / cortana, les serveur vocaux, watson, tout ces machins s'améliorent continuellement, on doit pas être si loin du moment où un utilisateur lambda non prévenu qu'il a peut être un bot face à lui se fera avoir régulièrement.

Pour ce qui est de reprendre des éléments conversationnels en les recombinant et avec une forme d'apprentissage, il me semble que c'est à peu près ce que faisait le chatbot de Microsoft devenu fan d'Hitler à cause des facéties de ses interlocuteurs humains.

Le problème est celui du sens. Le chatbot n'y a pas accès, il ne peut que modéliser des relations entre les divers éléments conversationnels, mots, notions, phrases, sans les relier à une expérience ou une modélisation du monde... qu'il ne possède pas.

A mon avis, si passer le test de Turing est seulement possible, cela n'arrivera qu'à partir du moment où on saura faire partager une expérience et une connaissance du monde. Un être artificiel qui posséderait un certain vécu, une certaine expérience, des réflexions et des interrogations sur son sort pourrait probablement passer le test de Turing - il lui suffirait de dissimuler que son espérance de vie, sa nutrition, ses sens, etc sont différents de ceux des êtres humains. Mais c'est cela qui n'est pas pour demain.

Pour prendre une comparaison, les systèmes experts ne se font pas prendre en faute ni pousser à dire n'importe quoi sur leur domaine de connaissance. Et on sait donc déjà faire des logiciels qui "maîtrisent" vraiment un domaine... mais c'est un domaine très limité.

Un logiciel qui passerait le test de Turing devrait être un système expert généraliste. C'est-à-dire qu'il pourrait très bien ne pas être si expert que ça - de même qu'aucun être humain n'est véritablement expert en tout - l'exigence "expert" pourrait être assez faible, mais en revanche l'exigence sur "généraliste" serait forte.

Si l'un de nous raconte quelques bêtises sur un sujet particulier, on se dira simplement "il n'y connait pas grand chose". S'il commence à aligner les raisonnements à la mord-moi-le-nœud sur plusieurs sujets différents, on commencera à se dire "mais c'est un c..". Mais s'il dit n'importe quoi sur des choses que tout le monde sait, qui font partie de l'expérience humaine usuelle ou des présupposés culturels courants... alors on soupçonnera la vérité :laugh:

 

Bon, heureusement, je n'ai pas encore été découvert. :tongue:

Lien vers le commentaire
Partager sur d’autres sites

6 minutes ago, Alexis said:

Pour ce qui est de reprendre des éléments conversationnels en les recombinant et avec une forme d'apprentissage, il me semble que c'est à peu près ce que faisait le chatbot de Microsoft devenu fan d'Hitler à cause des facéties de ses interlocuteurs humains.

. Le chatbot n'y a pas accès, il ne peut que modéliser des relations entre les divers éléments conversationnels, mots, notions, phrases, sans les relier à une expérience ou une modélisation du monde... qu'il ne possède pas.

A mon avis, si passer le test de Turing est seulement possible, cela n'arrivera qu'à partir du moment où on saura faire partager une expérience et une connaissance du monde. Un être artificiel qui posséderait un certain vécu, une certaine expérience, des réflexions et des interrogations sur son sort pourrait probablement passer le test de Turing - il lui suffirait de dissimuler que son espérance de vie, sa nutrition, ses sens, etc sont différents de ceux des êtres humains. Mais c'est cela qui n'est pas pour demain.

Pour prendre une comparaison, les systèmes experts ne se font pas prendre en faute ni pousser à dire n'importe quoi sur leur domaine de connaissance. Et on sait donc déjà faire des logiciels qui "maîtrisent" vraiment un domaine... mais c'est un domaine très limité.

Un logiciel qui passerait le test de Turing devrait être un système expert généraliste. C'est-à-dire qu'il pourrait très bien ne pas être si expert que ça - de même qu'aucun être humain n'est véritablement expert en tout - l'exigence "expert" pourrait être assez faible, mais en revanche l'exigence sur "généraliste" serait forte.

Si l'un de nous raconte quelques bêtises sur un sujet particulier, on se dira simplement "il n'y connait pas grand chose". S'il commence à aligner les raisonnements à la mord-moi-le-nœud sur plusieurs sujets différents, on commencera à se dire "mais c'est un c..". Mais s'il dit n'importe quoi sur des choses que tout le monde sait, qui font partie de l'expérience humaine usuelle ou des présupposés culturels courants... alors on soupçonnera la vérité :laugh:

 

Bon, heureusement, je n'ai pas encore été découvert. :tongue:

Si, mais contrairement à ce qu'on pourrait penser, les gens sur ce forum sont polis et ne veulent pas te faire sentir seul et isolé dans ton statut de machine parlante :tongue:. Toi qui pourtant a volé la place d'un forumeur en chair et en os: booouuuh, le machinisme! 

Quote

Le problème est celui du sens

Le sens? Plutôt la conscience de soi, non? Le fait principal dans l'histoire d'une intelligence artificielle est de, presque littéralement, "donner la vie", c'est-à-dire une conscience de soi autonome, et par là fixant ses propres priorités et choix à partir de l'expérience qu'elle acquiert (ce qui fout les jetons). Et la conscience de soi d'un être autonome commence avec une seule chose: la peur. Comment l'obtiendrais t-on d'un programme? Une machine peut-elle être effrayée pour sa propre survie?

yoda-you-will-be01.jpg

Oui, si ça arrivait, NOUS, on le serait.... Surtout parce que notre réaction initiale (avant que la dite machine n'apprenne à construire sa propre réponse à la chose) serait plutôt:

66024726.jpg

 

U

Quote

n logiciel qui passerait le test de Turing devrait être un système expert généraliste. C'est-à-dire qu'il pourrait très bien ne pas être si expert que ça - de même qu'aucun être humain n'est véritablement expert en tout - l'exigence "expert" pourrait être assez faible, mais en revanche l'exigence sur "généraliste" serait forte.

Ca encore, ça ne démontrerait qu'une puissance de calcul et une bonne capacité d'adaptation du logiciel, soit pas vraiment une "intelligence" autonome qui est le truc sur lequel on fantasme, on s'effraie.... Aussi complexe que ce soit, c'est de la "mécanique". Tout comme le chatbot de Microsoft, on ne parle là que d'une éponge qui recrache l'eau qu'on met dedans (OK, en étant méchant, on peut aussi dire ça de beaucoup d'humains), pas d'une conscience autonome qui développerait une expérience particulière en fonction de la façon dont elle vit (littéralement) son "apprentissage" du monde, vu depuis une perspective propre avec ses intérêts, ses priorités.... Bref, une "personnalité". 

L'ironie serait quand même que la première vraie intelligence artificielle autonome qu'on crée (de fait une nouvelle forme de vie) soit..... Un pur connard:wacko:

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

il y a 54 minutes, Alexis a dit :

Pour ce qui est de reprendre des éléments conversationnels en les recombinant et avec une forme d'apprentissage, il me semble que c'est à peu près ce que faisait le chatbot de Microsoft devenu fan d'Hitler à cause des facéties de ses interlocuteurs humains.

Pour le coup du chatbot microsoft, c'est une problématique d'apprentissage ; si tu prend un bébé humain, que tu le fait grandir dans un univers à la truman show où la moitié des gens qu'il rencontre lui disent des conneries pour se foutre de sa gueule, le résultat risque de pas être jojo non plus ;-)

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

  • 3 months later...
Le 26 avril 2016 à 22:50, Ojs.Fisher a dit :

Qu'est-ce qu'il se passerait si un humain menace un autre humain devant le robot et que l'humain en danger ordonne a ce dernier de neutraliser l'agresseur ? :)

Faire cesser une agression n'impose pas une grande violence. La simple interposition peut suffire. 

Lien vers le commentaire
Partager sur d’autres sites

On 26/04/2016 at 10:50 PM, Ojs.Fisher said:

Qu'est-ce qu'il se passerait si un humain menace un autre humain devant le robot et que l'humain en danger ordonne a ce dernier de neutraliser l'agresseur ? :)

Le probleme se pose déjà avec les automates de conduite.

L'automate de conduite détecte une collision "inéluctable".

Il compulse les différents scénario sur lesquels il peut influer.

  • rester sur la chausser et percuter, a 50kmh, le groupe d'enfant qui traverse.
  • quitter la chaussée et percuter le mobilier urbain a 50kmh.

Ensuite il doit arbitrer ...

Sur quelles bases doit ils le faire.

On lui aura probablement enseigner a minimiser les dommage avant tout.

Comment évaluer les dommages. Quel "cout" attribuer au mobilier urbain, aux enfants, au conducteur...

Lorsque que le choix devient critique - fort risque de décès de l'un ou de l'autre des intervenant - l'incertitude est elle suffisamment faible pour que le calcul de cout soit pertinent.

Est ce a l'utilisateur, au constructeur, ou au pouvoir public de décider de l’algorithme d'arbitrage et de ces paramètres?

Qui accepterai de monter dans une voiture capable de le sacrifier a un intérêt supérieure?!

 

 

Pour le moment pour éviter de se poser trop ce genre de question on cantonne la conduite automatique a une enveloppe ou le probleme posé ici a une très faible occurrence. Des environnement très contrôlés, ou des allure très modestes. Autrement ce n'est pas de la conduite complétement automatique mais de la forte assistance a la conduite et un humain reste au commande, et donc ayant le choix.

Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Restaurer la mise en forme

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

 Share

  • Statistiques des membres

    5 964
    Total des membres
    1 749
    Maximum en ligne
    Aquaromaine
    Membre le plus récent
    Aquaromaine
    Inscription
  • Statistiques des forums

    21,5k
    Total des sujets
    1,7m
    Total des messages
  • Statistiques des blogs

    4
    Total des blogs
    3
    Total des billets
×
×
  • Créer...