Jump to content
AIR-DEFENSE.NET

Intelligence artificielle de combat


Hirondelle
 Share

Recommended Posts

Le 03/09/2020 à 07:15, Shorr kan a dit :

Rappelez vous que les armes à feu était moins efficace qu'un carreau de flèche jusqu'au XIXème siècle, mais elles se sont généralisé quand même bien avant tant il était plus facile de former et armer un fusilier qu'un archer.

C'est moins l'arme elle même qui compte, que son intégration dans un dispositif tactique et l'élaboration une doctrine qui en tire le meilleur parti. 

Bonne remarque:

1) Les logiciels de combat (avec sans capacité relevant de l'IA) offrent la possibilité de saturer l'adversaire de combattants et d'information. Il n'est parfois même pas nécessaire d'utiliser des engins armés: on se rappellera comment Tsahal s'est servi de drones désarmés autrefois pour "provoquer" la DCA adverse et localiser au profit des bombardiers.

2) C'est bien sûr la tactique d'emploi de l'IA qui est décisive, son déploiement n'entraînant aucun avantage mécanique. D'où l'importance de bien comprendre la nature de l'équipement: IA=système expert renseigné par un raison de capteur (et pas un T.I.T.A.N.)=logiciel de détection des similitudes dans les données fournies par les capteurs.

Donc, l'IA/le système expert ne vaut rien sans réseau de capteurs adaptés (doctrine: choix des capteurs), sans compréhension de ce qui faut chercher (doctrine: connaissance des données décisives), sans moyen d'exploitation approprié (doctrine: exploitation des informations), etc...

Pour rebondir sur ce que dit Shorr kan, ce sont les Espagnol qui ont inventé le mousquet en 1521 comme arme de siège mais les Suédois qui ont appris à l'employer correctement pendant la Guerre de Trente ans avec leur armée de fusiliers ultramanoeuvrière.

  • Like 2
Link to comment
Share on other sites

  • 4 months later...

Dogfight IA contre humain : la suite.

Vous vous souvenez qu’une IA de Heron Systems financé par la DARPA avait écrasé un pilote de F16 en simulation.

5-0

Parmi les objections qui avaient été faites, celles pointant que le pilote de F16 avait été médiocre, semblait peu accoutumé à la simulation et que lui manquait les sensations «aux fesses » pour exprimer ses compétences. D’où l’idée de mettre un (bon) simer en face de Falco (callsign de l’IA) pour voir ce que ça change.

Ça donne:

3-1 pour l’IA, et un nul.

Vidéo là, et un article malheureusement en italien que j’ai la flemme de vous traduire :tongue:

https://www.google.fr/amp/s/aerospacecue.it/gamer-contro-ai-militare-dogfight-simulatore-pilota-caccia-f16/23787/%3famp

Partie 1 https://youtu.be/Sy5DA7Wu9FA

 

Partie 2 https://youtu.be/3Isig_RRRqY

 

  • Thanks 1
Link to comment
Share on other sites

  • 2 weeks later...

Avec la puissance de calcul qui augmente vite, les rapides progrès des modèles et l’absence de limite physique, je ne vois pas comment un homme pourrait battre une IA en combat simple (en tous cas plus très longtemps).

Mais je me pose une question. Pour entraîner les modèles ils prennent tout bêtement les données des combats faits au simulateur ? (Je ne pense pas qu’ils aient des millions de combats réels numérisés) Ils ont intérêts à faire « jouer » le maximum de gens pour enrichir la base. Accords avec les éditeurs de jeux ? Les joueurs bossent pour le Pentagone sans le savoir ?

Link to comment
Share on other sites

1 hour ago, Billou said:

Avec la puissance de calcul qui augmente vite, les rapides progrès des modèles et l’absence de limite physique, je ne vois pas comment un homme pourrait battre une IA en combat simple (en tous cas plus très longtemps).

Mais je me pose une question. Pour entraîner les modèles ils prennent tout bêtement les données des combats faits au simulateur ? (Je ne pense pas qu’ils aient des millions de combats réels numérisés) Ils ont intérêts à faire « jouer » le maximum de gens pour enrichir la base. Accords avec les éditeurs de jeux ? Les joueurs bossent pour le Pentagone sans le savoir ?

Le plus simple c'est d'organiser des "combats" informatique ... et de regarder ce qu'il se passe et qui gagne.

Pour le moment la manière dont fonctionne les automates apprenant ... par simple "imitation/simulation" ... laisse de la marge à l'humain.

Pour faire simple le concept d'Intelligence Artificielle n'est pas intelligent ...

Link to comment
Share on other sites

Le 21/08/2020 à 21:58, Hirondelle a dit :

que se passerait-t-il si la DARPA collait un face de son IA une autre IA semblable ?

C'est un peu comme de faire jouer un logiciel d'échec contre un autre...  enfin je pense.

Link to comment
Share on other sites

@Billou

Pour l’instant, les conditions de simulation sont quand même très favorables à l’ordinateur (j’évite le mot « intelligence artificielle » comme l’a suggéré G4lly) : il reçoit la position, la direction, la vitesse de son opposant, directement et instantanément au format numérique qui lui va bien, alors que le simeur doit de débrouiller avec son ou ses écrans et ses deux yeux (plus, en l’espèce, des lags sur son internet coréen si je me souviens bien).

Dans la vraie vie, l’ordinateur serait soumis à de toutes autres limitations matérielles, tenant à la qualité et la fiabilité de son tracking vidéo et radar (à ce jour il n’est pas omnidirectionnel sur les chasseurs, et il n’y a qu’à voir les vidéos, les poursuites enregistrent des latences, des discontinuités...).

Là, il me semble que l’oeil du pilote monté sur sa rotule vertébrée humaine reprendra un avantage sur les dispositifs mécaniques et électroniques.

Cela pose la question de la pertinence de ce que pourra faire l’informatique en cas de panne matérielle ou de dégradation des informations données par ses capteurs. Et il me que le cerveau humain est particulièrement adapté aux traitement des informations incomplètes, c’est même sa spécialité.

Alors, l’ordinateur, sous réserve de ressources matérielles adaptées, fiables et rapides qui seront certainement coûteuses, sera toujours plus rapide et supportera mieux les G.

Mais le pilote humain, lui, sera moins perturbé par une mouche écrasée sur son irst ou un lag à la Windows, et réagira (plus ou moins bien) quoiqu’il arrive à un imprévu, quand, sur une faille de programmation l’ordi se mettra peut-être en sécurité ou en écran bleu (grosse pensée pour certains roman d’Asimov et ses lois de la robotique :happy:)

En tout cas j’espère que ça suffira à repousser l’échéance longtemps.

Edited by Hirondelle
Link to comment
Share on other sites

Il y a 5 heures, g4lly a dit :

Pour faire simple le concept d'Intelligence Artificielle n'est pas intelligent ...

Mon fils travaille dans le domaine : son employeur développe des engins autonomes pour l'industrie, pour des industriels du monde entier de renommées mondiales.

Je vais traduire en terme simple (pour moi) le peu que je réussis a comprendre de ce qu'il me raconte :

Jusqu'il y a peu c'est la puissance de calcul, de mémoire et l'accès à des bases de données énormes qui ont fait la performances de ces systèmes. Mais certaines technologie d'IA (réseau profond de neurones?  suis pas sur de moi) vont au delà de la seule puissance de calcul, avec des processus itératifs ou elle apprend chaque fois de ses réussites / erreurs.  Et c'est devenu assez complexe au point qu'il est impossible de retracer le cheminement qui a permis à la machine de trouver une solution (souvent très bonne, voir parfaite).  C'est assez déroutant semble il.   

Le patron de Thales, Caine, avait parlé de cela en disant que par exemple en l'état actuel des processus de certification aéronautique, il serait impossible de certifier un pilote automatique mu par cette technologie parce qu'en cas de pépin on ne saurait pas déterminer ce qui n'a pas fonctionné....   

  • Thanks 1
Link to comment
Share on other sites

Il y a 6 heures, g4lly a dit :

Le plus simple c'est d'organiser des "combats" informatique ... et de regarder ce qu'il se passe et qui gagne.

Pour le moment la manière dont fonctionne les automates apprenant ... par simple "imitation/simulation" ... laisse de la marge à l'humain.

Pour faire simple le concept d'Intelligence Artificielle n'est pas intelligent ...

A partir de quand le sera-t-elle ? Autrement dit, quelles sont les spécificités permettant de dire qu'une intelligence sera devenue intelligente ? Parce qu'une large partie de notre intelligence repose sur l'expérience et donc de l'imitation/simulation...

Link to comment
Share on other sites

il y a une heure, Skw a dit :

A partir de quand le sera-t-elle ? Autrement dit, quelles sont les spécificités permettant de dire qu'une intelligence sera devenue intelligente ? Parce qu'une large partie de notre intelligence repose sur l'expérience et donc de l'imitation/simulation...

Elle repose dessus mais sont exercice procède de l'abstraction que nous sommes capable de faire sur base de ces données compilées (parfois et souvent incomplètes). Nous tirons de cette abstraction des solutions concrètes aux problèmes qui se posent à nous.

Ici, si je comprends l'explication de Bon Plan, nous avons affaire à une "entité", la pseudo IA, qui commence à pouvoir effectuer des abstractions au départ des données. La solution de l'IA ne résulte donc pas ipso facto de la compilation brute de données dont le tri pour produire la solution au problème découle exclusivement de la capacité de calcul (ce qui est la manière la plus stupide de raisonner) mais bien de quelque chose d'autre, induisant un cheminement "mental" que nous ne sommes plus capables de retracer.

Link to comment
Share on other sites

il y a 15 minutes, Chronos a dit :

Ici, si je comprends l'explication de Bon Plan

A prendre avec des pincettes. J'ai relaté ce que j'en ai compris et ce que j'en ai retenu.  C'est tellement loin de mes savoirs de base que je suis trés prudent.

Le domaine est en pleine effervescence.   

Peut on croiser ce sujet, l'IA, avec l'ordinateur quantique?   Si oui ca démultiplie ou démultipliera les capacités en tout, calcul, apprentissage....

 

PS : j'adore la petite phrase en anglais dans ton bas de page.  J'ai justement revu Blade Runner, final cut, hier soir :chirolp_iei:

Edited by Bon Plan
  • Upvote 1
Link to comment
Share on other sites

il y a une heure, Chronos a dit :

Elle repose dessus mais sont exercice procède de l'abstraction que nous sommes capable de faire sur base de ces données compilées (parfois et souvent incomplètes). Nous tirons de cette abstraction des solutions concrètes aux problèmes qui se posent à nous.

Ici, si je comprends l'explication de Bon Plan, nous avons affaire à une "entité", la pseudo IA, qui commence à pouvoir effectuer des abstractions au départ des données. La solution de l'IA ne résulte donc pas ipso facto de la compilation brute de données dont le tri pour produire la solution au problème découle exclusivement de la capacité de calcul (ce qui est la manière la plus stupide de raisonner) mais bien de quelque chose d'autre, induisant un cheminement "mental" que nous ne sommes plus capables de retracer.

En fait, ce que Bon Plan explique correspond tout à fait à ce que l'on constate dans le domaine des échecs. Quand on observe le développement des moteurs d'échecs (avec par exemple un AlphaZero reposant sur un réseau neuronal lui offrant de bien mieux saisir le jeu positionnel, ce sur quoi l'humain pouvait encore surpasser certains programmes basés sur la force de calcul brut) et notamment les tournois/matchs entre programmes et que l'on suit les tentatives d'analyses humaines de ces matches ou extraits de matches... il y a effectivement des choses particulièrement déroutantes. Et le jeu humain s'est très largement vu influencé par le développement de ces programmes, avec des coups que l'on se serait refusé de jouer par le passé. Il y a également des options de jeu qui semblent particulièrement fortes, mais que les meilleurs joueurs humains se refusent parfois de suivre dans leur préparation car celles-ci exigeraient trop de précision, difficilement accessible pour un humain sur une suite de coups, au risque sinon de se voir perdant. Quand un programme sort des coups jusque là impensés, qu'il participe à la production de nouvelles connaissances sur la base de développements que l'on aurait parfois du mal à expliquer humainement, on peut se demander si on n'est tout de même pas sur une forme d'intelligence ou du moins une intelligence embryonnaire. Une intelligence limitée à un champ bien circonscrit, certes, mais une intelligence tout de même.

En fait, j'ai bien peur que s'il n'existe pas des critères précis - sans doute existent-ils d'où ma question - on se trouvera à un moment ou l'autre devant le fait accompli : c'était effectivement déjà de l'intelligence. 

Edited by Skw
Link to comment
Share on other sites

La vision statistique sur des projections de données en grand nombre est connu depuis très longtemps et ce n’est pas cela qui caractérise AI.

L’AI c’est la reproduction de sens et de raisonnement de l’humain et de notre cerveau.

apprendre, interpréter, raisonner, voir, parler, entendre et bientôt sentir.

pour chaque caractéristique, il y a des modelés mathématiques différents et des modèles de données différents en caractéristiques et volumes.

Si je prends un système optique qui devrait reconnaître un mig 29 d’un su 30, il faudra l’entrainer à reconnaître, classe des probabilités de reconnaissance et surtout donner un indice de confiance dans le résultat...

Une IA peut apprendre en temps réel ou être déjà entraînée pour servir un système. On comprend bien que la puissance de calcul nécessaire sera différente sur un système embarqué. On parlera d’IA supervisée ou de non supervisée.

enfin on peut faire collaborer plusieurs IA dédiées ou spécialisées entre elles : une sur la vue, l’autre sur le raisonnement, l’autre sur le langage naturel dans des réseaux plus ou moins complexe.

Il ne font donc pas confondre l’objet de l’IA, sa manière de fonctionner, les modèles mathématiques et le traitement des données.

L’IA peut reconnaître un sentiment, c’est largement utilisé dans les centre d’appels mais est incapable d’en avoir, avoir de l’empathie ou d’aimer.

 

 

 

 

 

Edited by Pierre_F
  • Like 1
  • Upvote 1
Link to comment
Share on other sites

Il y a 5 heures, Bon Plan a dit :

Mais certaines technologie d'IA (réseau profond de neurones?  suis pas sur de moi) vont au delà de la seule puissance de calcul, avec des processus itératifs ou elle apprend chaque fois de ses réussites / erreurs.  Et c'est devenu assez complexe au point qu'il est impossible de retracer le cheminement qui a permis à la machine de trouver une solution (souvent très bonne, voir parfaite).  C'est assez déroutant semble il.   

Oui depuis environ un an les  performances dépassant largement les espérances des réseaux de neurones très profonds ont du mal à être expliquées (source prof de fac sur le sujet). Et comme tu dis de toutes manières on ne sait pas comment un réseau de neurones « s’est construit ». Tout ce qu’on sait c’est qu’il a réussi à emmagasiner (factoriser ?) tous les entraînements qu’on lui a proposé. 
Dans le même genre mais bcp plus léger, il y a le système qui a tapé le score max dans pacman. Papier RL pacman  2017

Vidéo courte sur le sujet 

Il y a 5 heures, Hirondelle a dit :

 

Cela pose la question de la pertinence de ce que pourra faire l’informatique en cas de panne matérielle ou de dégradation des informations données par ses capteurs. Et il me que le cerveau humain est particulièrement adapté aux traitement des informations incomplètes, c’est même sa spécialité.

Est ce que les pannes sont fréquentes au point qu’apres la fusion de données on soit aveugle ? (Vu que ce serait une entrée de l’IA)

Souvent aussi on compare les IA avec les meilleurs des humains, mais la protection du pilote a un certain coût. Combien coûterait un chasseur sans pilote ? Est ce que quelques chasseurs IA n’aurait pas le même coût qu’un seul chasseur humainement pilotée ?

  • Upvote 1
Link to comment
Share on other sites

Il y a 5 heures, Bon Plan a dit :

Et c'est devenu assez complexe au point qu'il est impossible de retracer le cheminement qui a permis à la machine de trouver une solution (souvent très bonne, voir parfaite).  C'est assez déroutant semble il. 

Houlà. Vous êtes sûr qu'il n'y a pas eu des distorsions entre ce que vous a dit votre fils et ce que vous en avez retenu ? Que ce soit difficile, je veux bien mais impossible... Peut être qu'en jouant sur le mots on peut arriver à dire ça mais ça me parait trompeur.

Si vous voulez vous forger une opinion sur ce sujet, je voudrais vous suggérer de vous intéresser à la manière dont on conçoit la reconnaissance automatique de caractères par un réseau de neurones. C'est une bonne base pour appréhender. C'est à la fois très simple et très instructifs sur les réseaux de neurones et l'IA en général.

Pour faire simple, on va laisser le réseau s'auto organiser pour qu'il affine les réglages de lui même. Si on veut lui faire reconnaitre la lettre "A" par exemple, on va lui "faire manger" un maximum de lettre "A" sous toutes ses formes graphiques en sachant qu'il voit bien des "A" à chaque fois. Après si on final, on perd de vue pourquoi ses paramètres sont à cet endroit là plutôt qu'à un autre, effectivement on ne sait pas pourquoi. Mais on maitrise bien la logique de l'ensemble de bout en bout. 

J'espère que j'ai été clair parce que je ne suis pas trop entré dans les détails...

Link to comment
Share on other sites

il y a 16 minutes, johnsteed a dit :

Vous êtes sûr qu'il n'y a pas eu des distorsions entre ce que vous a dit votre fils et ce que vous en avez retenu ?

1) c'est très possible. 

2) tu peux et je dirais presque tu dois me tutoyer.

 

Mais le PDG de Thales disait la même chose : impossible de retracer disons sous force grafcet le cheminement pris par ses réseaux profond de neurones pour aboutir à sa solution.  Ce qui semble en sortir c'est que c'est une très bonne voir une excellente solution, mais on ne sait pas l'expliquer.

il y a 21 minutes, johnsteed a dit :

vous intéresser à la manière dont on conçoit la reconnaissance automatique de caractères par un réseau de neurones. C'est une bonne base pour appréhender.

Est ce un exemple suffisamment complexe pour tirer une conclusion aussi nette?

Link to comment
Share on other sites

Je crois que je vois ce dont il s'agit. Je vais essayer de faire simple avec un exemple.

Imagine (donc, je tutois :smile:) que tu regardes un processeur au microscope. Il y a plus d'un milliards de transistors. Tu en pointes un au hasard et tu te poses la question: A quoi il sert celui là ? Quelle est sa fonction, son impact sur tous les autres ? C'est pratiquement impossible à remonter. Disons que c'est un travail de fourmis qui serait peut être plus compliqué encore que de concevoir le processeur depuis une feuille blanche. Dans ce sens là, on peut schématiser que c'est matériellement impossible (et surtout pas du tout rentable)

En revanche, on connait très bien la fonction du processeur. Et malgré toutes les fonctions, toutes les tâches innombrables qu'il est capable d'établir, on sait très bien comment il fonctionne puisque nous l'avons conçu pour ça. Mais comme il a été conçu à travers une multitude d'étages d'outils destinées eux même à prendre en charge la complexité de l'étage d'en dessous, au final on a perdu de vu l'impact du transistor n°xxx. Donc on peut dire qu'on ne sait plus comment l'ordinateur fait pour faire telle chose. Mais je trouve que c'est un abus de langage qui peut disséminer les idées fausses en laissant penser que l'homme a perdu la main sur la machine, ce qui n'est pas le cas. C'est souvent utilisé dans un contexte marketing ou journalistique pour je dirais "en mettre plein la vue". Du genre: nous faisons des choses tellement inouïes qu'on ne sait plus comment ça marche. Je trouve que ça n'aide pas à informer correctement les choses et ça laisse trainer des préjugés.

Quand un ordinateur bugue, parfois on ne sait pas expliquer pourquoi. Ca ne veut pas dire que la machine a pris son autonomie de l'humanité, que sa complexité nous dépasse et qu'on ne sait plus comment il fait. C'est bien nous qui avons écrit son code.

  • Upvote 1
Link to comment
Share on other sites

il y a une heure, Billou a dit :

Est ce que les pannes sont fréquentes au point qu’apres la fusion de données on soit aveugle ? (Vu que ce serait une entrée de l’IA)

Souvent aussi on compare les IA avec les meilleurs des humains, mais la protection du pilote a un certain coût. Combien coûterait un chasseur sans pilote ? Est ce que quelques chasseurs IA n’aurait pas le même coût qu’un seul chasseur humainement pilotée ?

Admettons qu’un avion piloté et un drone IA soient pareillement équipés en capteurs.

Le drone a l’avantage du poids et sans doute de la manœuvrabilité. L’avantage encore dans la vitesse de traitement de la données.

L’avion piloté a pour lui son pilote dont l’entraînement est onéreux mais la maintenance aisée : une jolie copine,  un sandwich jambon-beurre, des WC, et roule ma poule !

Je me bornais donc à suggérer qu’en cas de panne, il resterait à l’appareil piloté les fesses de son pilote, ses yeux... En combat tournoyant, c’est à ce jour le principal.

Après, s’il n’y a jamais de pannes, c’est peut-être une autre histoire. Mais qui y croit ? Pourquoi y a t des spare prévus pour chaque mission.

Et, hors panne, les fesses et les yeux de Tanguy fonctionnent aussi. Ce n’est pas rien, même si parfois ça aboutit à une désorientation spatiale fatale et qu’il a fallu inventer le bouton pour remettre les ailes à plat et tirer sur le manche.

Link to comment
Share on other sites

Mais est ce que les pannes des systèmes d’acquisition sont courantes ? (Radar, IR,  images...)

On peut aussi entraîner le modèle en mode dégradé avec une source de donnée coupée.

Quelle serait la différence de coût entre un chasseur avec ou sans pilote ? Si c’est possible d’imaginer un rafale conçu sans pilote ou un neuron avec un pilote.

Link to comment
Share on other sites

il y a une heure, Billou a dit :

Mais est ce que les pannes des systèmes d’acquisition sont courantes ? (Radar, IR,  images...)

 

Je viens de gratter le sujet des pods de désignation : dispo assez faible.

Et notre souffre douleur sur AD, le Lightening II: c’est l'électronique qui flanche ou «tombe » en obsolescence tous les 4 matins, non ?

Epi, l’humidité, contre-mesures, leurres et autres artéfacts malicieux, virus Stuxnet, trop chaud, trop froid, foudre, développeur naze (il y a plein d’exemples de developpeurs nazes ds les rapports du BEA-É !)

Sans parler du café dans le cockpit du A350, mais ça : c’est la faute aux pilotes, l’IA ne boit pas de café je crois.

Une guêpe maçonne qui fricote ds un tube pitot, ça vous fusille un croiseur stellaire de nos jours...

[j’ai le droit, c’est ‘dredi :tongue:]

 

 

Link to comment
Share on other sites

Il y a 5 heures, Hirondelle a dit :

Admettons qu’un avion piloté et un drone IA soient pareillement équipés en capteurs.

Le drone a l’avantage du poids et sans doute de la manœuvrabilité. L’avantage encore dans la vitesse de traitement de la données.

L’avion piloté a pour lui son pilote dont l’entraînement est onéreux mais la maintenance aisée : une jolie copine,  un sandwich jambon-beurre, des WC, et roule ma poule !

Je me bornais donc à suggérer qu’en cas de panne, il resterait à l’appareil piloté les fesses de son pilote, ses yeux... En combat tournoyant, c’est à ce jour le principal.

Après, s’il n’y a jamais de pannes, c’est peut-être une autre histoire. Mais qui y croit ? Pourquoi y a t des spare prévus pour chaque mission.

Et, hors panne, les fesses et les yeux de Tanguy fonctionnent aussi. Ce n’est pas rien, même si parfois ça aboutit à une désorientation spatiale fatale et qu’il a fallu inventer le bouton pour remettre les ailes à plat et tirer sur le manche.

Un pilote c'est cher et long à former (au EU 15 millions de dollars). S'il meurs ou est gravement blessé, lui, ses capacités et son expérience sont définitivement perdus.

Une IA est immortelle, tu as juste à la re-télécharger sur un nouvel appareil. En plus elle apprend de l'expérience des autres IA et des humains. Elle peut donc gagner juste par attrition. Elle n'a même pas besoin d'être meilleur/plus performante qu'un humain, même si le surclassement est inévitable à terme par effet d'apprentissage.

 

  

Il y a 12 heures, Bon Plan a dit :

Mon fils travaille dans le domaine : son employeur développe des engins autonomes pour l'industrie, pour des industriels du monde entier de renommées mondiales.

Je vais traduire en terme simple (pour moi) le peu que je réussis a comprendre de ce qu'il me raconte :

Jusqu'il y a peu c'est la puissance de calcul, de mémoire et l'accès à des bases de données énormes qui ont fait la performances de ces systèmes. Mais certaines technologie d'IA (réseau profond de neurones?  suis pas sur de moi) vont au delà de la seule puissance de calcul, avec des processus itératifs ou elle apprend chaque fois de ses réussites / erreurs.  Et c'est devenu assez complexe au point qu'il est impossible de retracer le cheminement qui a permis à la machine de trouver une solution (souvent très bonne, voir parfaite).  C'est assez déroutant semble il.   

Le patron de Thales, Caine, avait parlé de cela en disant que par exemple en l'état actuel des processus de certification aéronautique, il serait impossible de certifier un pilote automatique mu par cette technologie parce qu'en cas de pépin on ne saurait pas déterminer ce qui n'a pas fonctionné....   

En fait, ce qu'il t'as dis c'est que la machine fonctionne comme une boite noir pour faire simple.

 

Link to comment
Share on other sites

Je présenterais les choses autrement :

Aujoud’hui le nombres de senseurs, d’informations en réseaux en plus des informations de pilotage devient si nombreuses qu’il est impossible à un humain de les analyser en même temps et de faire des bons choix. On augmente donc le nombre d’erreurs probables.

L’IA arrive donc en assistance au pilote embarqué ou au sol dans le cas d’un drone. Cette IA va classifier des décisions à prendre mais le choix restera au pilote. Par exemple manœuvre d’evasion, largage d’un missile..surtout que tout est au delà des limites visuelles.

L’IA servira aussi à la maintenance et à la gestion des maintenances.

Enfin l’IA pourra être dans les munitions.

Link to comment
Share on other sites

il y a 30 minutes, Pierre_F a dit :

Je présenterais les choses autrement :

Aujoud’hui le nombres de senseurs, d’informations en réseaux en plus des informations de pilotage devient si nombreuses qu’il est impossible à un humain de les analyser en même temps et de faire des bons choix. On augmente donc le nombre d’erreurs probables.

L’IA arrive donc en assistance au pilote embarqué ou au sol dans le cas d’un drone. Cette IA va classifier des décisions à prendre mais le choix restera au pilote. Par exemple manœuvre d’evasion, largage d’un missile..surtout que tout est au delà des limites visuelles.

L’IA servira aussi à la maintenance et à la gestion des maintenances.

Enfin l’IA pourra être dans les munitions.

La voie vers les cyborgs, mi-homme, mi-machine, des sortes de  "centaures" cybernétiques quoi.

Link to comment
Share on other sites

il y a 48 minutes, Shorr kan a dit :

Un pilote c'est cher et long à former (au EU 15 millions de dollars)

Alors qu’un logiciel d’intelligence artificielle, c’est pas cher, ça n’a pas besoin de développement, de mise à jour matérielles, de capteurs, de redondance, de maintenance, toussa !

[Cependant, il faudrait aussi adjoindre une IA au pilote humain... Un conseiller numérique, cher, très cher lui aussi... La « voie du cyborg »]

 

il y a 48 minutes, Shorr kan a dit :

Une IA est immortelle

Tu ne penses pas qu’une IA «vraie », serait à un certain degré de développement, sujette elle aussi à dépression, dérive éthique, paresse conceptuelle, folie...? Que c’est consubstantiel à la complexité, à la contradiction, aux conflits, aux choix à faire...

 

il y a 48 minutes, Shorr kan a dit :

elle apprend de l'expérience des autres IA et des humains

Moi aussi !!!

 

il y a 52 minutes, Shorr kan a dit :

Elle peut donc gagner juste par attrition. Elle n'a même pas besoin d'être meilleur/plus performante qu'un humain

Sauf si je t’ai mal compris : l’IA pilote un vecteur qui lui est contingent et ne peux être renouvelé à l’infini.

 

Je pense que tu considères l’IA un peu comme ma mère me voit (corse et pieds-noirs à la fois !) : c’est chouïa flatteur :happy:

Cet idéal n’est peut-être pas totalement chimérique, mais pas tout de suite. Pour l’instant, l’avion le plus blindé  d’informatique, c’est le F35... Et le capteur le plus dur à leurrer, brouiller, hacker, c’est l’oeil humain.

[tu as lu la Stratégie de Ender ? Ce débat m’y fait penser]

 

  • Haha 1
Link to comment
Share on other sites

il y a 4 minutes, Hirondelle a dit :

Alors qu’un logiciel d’intelligence artificielle, c’est pas cher, ça n’a pas besoin de développement, de mise à jour matérielles, de capteurs, de redondance, de maintenance, toussa !

[Cependant, il faudrait aussi adjoindre une IA au pilote humain... Un conseiller numérique, cher, très cher lui aussi... La « voie du cyborg »]

 

...

 

Ce qui est cher c'est le cout de développement, mais tu ne fais ça qu'une seule fois. La machine n'a besoin que de mises à jours. 

alors qu'il faut à chaque fois recommencer avec un nouvel humain. En plus il faut l'entrainer régulièrement pour qu'il ne perde pas la main.  L'IA peut rester en sommeil indéfiniment. 

 

il y a 15 minutes, Hirondelle a dit :

...

 

Tu ne penses pas qu’une IA «vraie », serait à un certain degré de développement, sujette elle aussi à dépression, dérive éthique, paresse conceptuelle, folie...? Que c’est consubstantiel à la complexité, à la contradiction, aux conflits, aux choix à faire...

 

...

 

T'imagines,  une IA tellement sensible qu'il suffirait de s'en moquer pour la faire rager et perdre :chirolp_iei:

Justement on ne parle pas de vraie intelligence, juste de logiciel expert boosté.

Leur avantage c'est juste de faire les choses vite et parfaitement, sans erreur. Elle ont même pas besoin d'être spécialement plus performantes dans l'absolu comme les arquebuses n'avaient pas besoin d'être plus performantes que des arcs pour les supplanter.

 

il y a 22 minutes, Hirondelle a dit :

...

 

....

Cet idéal n’est peut-être pas totalement chimérique, mais pas tout de suite. Pour l’instant, l’avion le plus blindé  d’informatique, c’est le F35... Et le capteur le plus dur à leurrer, brouiller, hacker, c’est l’oeil humain.

...

 

Je suis d'accords, on est loin du compte.

 

il y a 23 minutes, Hirondelle a dit :

...

[tu as lu la Stratégie de Ender ? Ce débat m’y fait penser]

 

Connais de réputation, mais jamais lu le(s) livre. Par contre je me suis infligé le film, très oubliable.

Link to comment
Share on other sites

il y a une heure, Hirondelle a dit :

 

Tu ne penses pas qu’une IA «vraie », serait à un certain degré de développement, sujette elle aussi à dépression, dérive éthique, paresse conceptuelle, folie...? Que c’est consubstantiel à la complexité, à la contradiction, aux conflits, aux choix à faire...

 

Une IA ne fait que reproduire ce sur quoi elle a été entraînée. Il y a quelques années une IA de Microsoft a été « lâchée » sur les réseaux sociaux. Comme elle avait été entraînée sur des millions d’echange réels de réseau sociaux elle a vrillé en moins de 24h. Microsoft l’a débranchée, elle avait attrapé tous les mauvais travers extrémistes...

Vice: la belle histoire de l’IA adolescente devenue nazie en 24h

:biggrin:

Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

 Share

  • Member Statistics

    5,748
    Total Members
    1,550
    Most Online
    Patou860
    Newest Member
    Patou860
    Joined
  • Forum Statistics

    21.4k
    Total Topics
    1.5m
    Total Posts
  • Blog Statistics

    4
    Total Blogs
    3
    Total Entries
×
×
  • Create New...