Aller au contenu
AIR-DEFENSE.NET

faltenin
 Share

Messages recommandés

Il y a 3 heures, Lordtemplar a dit :

spacer.png

ça doit être sympa en PO pour regarder un film en attendant le scramble...

il y a 14 minutes, Patrick a dit :

Une fois de plus je suis admiratif du gros manche à balai central qui masque la vue d'une partie de l'écran. Mais bon.

je suis étonné qu' @Hirondelle n'ait pas encore réagi avec un tel appel de pied ! :bloblaugh:

  • Haha (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

il y a 45 minutes, Patrick a dit :

C'est ce qui est prévu pour les Hawk et Typhoon qatari.

Une fois de plus je suis admiratif du gros manche à balai central qui masque la vue d'une partie de l'écran. Mais bon.

Il est vrai que les pilotes on cette réputation...

D'avoir des gros manches...

 

Blague a part : je suis pas du tout fan de cette énorme dalle !

Lien vers le commentaire
Partager sur d’autres sites

Il y a 7 heures, rendbo a dit :
Il y a 8 heures, Patrick a dit :

Une fois de plus je suis admiratif du gros manche à balai central qui masque la vue d'une partie de l'écran. Mais bon.

je suis étonné qu' @Hirondelle n'ait pas encore réagi avec un tel appel de pied ! :bloblaugh:

Je ne relève pas ce manche car pour moi il y a là une légende urbaine : rien ne dit pourquoi un mini manche devrait être frétillant quand un gros serait paresseux.

Et puis ce gros manche, l’essentiel est de l’avoir bien en mains...

...et qu’il n’y ait pas trop de boutons dessus, ça ça me préoccupe davantage.

M’enfin, si tu as l’habitude des mini manches, c’est sûrement bien aussi. Mais il y a moyen d’avoir un gros manche et de rester manoeuvrant:

spacer.png

SU57

  • Haha (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Il y a 8 heures, Patrick a dit :

Une fois de plus je suis admiratif du gros manche à balai central qui masque la vue d'une partie de l'écran. Mais bon.

Un petit mouvement successif de manche à droite puis à gauche et hop on voit la partie masquée ... (à éviter en formation serrée).

Lien vers le commentaire
Partager sur d’autres sites

il y a 11 minutes, alfabravo a dit :

Un petit mouvement successif de manche à droite puis à gauche et hop on voit la partie masquée ... (à éviter en formation serrée).

Le pilote ayant une vision très différente, beaucoup plus haute que sur les photos, la zone cachée doit être très faible voir inexistante 

  • Upvote (+1) 3
Lien vers le commentaire
Partager sur d’autres sites

il y a 1 minute, clem200 a dit :

Le pilote ayant une vision très différente, beaucoup plus haute que sur les photos, la zone cachée doit être très faible voir inexistante 

Hmmm ... De toutes manières, on va dire qu'il ne s'agit que d'une maquette, d'une preuve de concept ... donc que ce n'est pas représentatif de la réalité.

Parce que si ce l'est, alors la zone cachée est énorme, car le pilote est positionné de manière que sa vision intercepte l'écran avec un angle le plus proche possible de 90°. Ainsi, le rendement (en luminosité) de l'écran est maximal et sa surface d'affichage est pleinement exploitée. Si tu "remontes" sa tête pour démasquer l'écran par rapport au manche, alors la surface de l'écran est perçue comme plus petite, non isotrope (un cercle ou un carré deviennent au mieux une ellipse et un rectangle, voire un trapèze), le rendu lumineux présente des pertes et les risques de reflets sont augmentés.

  • J'aime (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Le propre de la visionique de bord c'est d'être accessible à tout moment quasiment intuitive presque en vision panoramique si on doit commencer à branler le manche pour pouvoir discerner un écran de navigation voir de situation armement ou pétrole ...

Ce n'est pas pour rien que sur le 2000-5 l'écran situé sous la VTH (que l'on retrouvait sur le SEM comme écran principal) a pour fonction première de retranscrire les informations de cette même VTH au pilote pour qu'il n'aie pas à faire des allers-retours constants entre ses 3 VTB et cette VTH

  • Upvote (+1) 3
Lien vers le commentaire
Partager sur d’autres sites

Inutile, car le manche central est nettement préféré par la communauté des pilotes (plus naturel etc) face à un mini-manche qui n'est que le fruit des caprices des ingénieurs autistes français.

 

Hum. C'est comme si quelqu'un d'autre parlait à ma place...

  • Haha (+1) 3
Lien vers le commentaire
Partager sur d’autres sites

il y a 27 minutes, emixam a dit :

Ça fait plus moderne ?

Mon sentiment c'est que ces dalles sont une solution de facilité.

Ça permet de reconfigurer une interface si jamais il faut la faire évoluer. Donc pas besoin de l'optimiser à fond dès le départ. Ça permet de ne pas penser une interface très ergonomique, et de laisser croire que la prise en main est aisée et rapide, alors qu'une vraie IHM avec de la boutonnique, et une formation afférente, seront toujours meilleures puisque permettant de contrôler l'avion du bout des doigts. Mais surtout plus chères.

Ça permet aussi de limiter la surface d'écran dans le cockpit par rapport à des écrans distribués, et de donner l'illusion d'une meilleure visibilité grâce à l'affichage en grand d'une fonction, en particulier celles liées aux optiques, que ce soit les nacelles ou les capteurs intégrés. Sauf que ces fonctions sont difficilement utilisables au combat s'il faut passer son temps à utiliser l'écran.
Les petits écrans ont aussi le bon goût d'être plus aisément préhensibles. Et c'est exactement ce qu'il leur faut pour que leur fonction tactile n'aboutisse pas à des catastrophes du genre "j'ai glissé chef".

Idéalement je pense qu'une surface d'affichage large dédiée aux optiques et/ou à la SITAC, accompagnée d'écrans latéraux dédiés aux systèmes, le tout contrôlable essentiellement via un HOTAS bien pensé, est nécessairement meilleure pour un pilote.

Pour un NOSA c'est encore plus le cas, mais il faut pouvoir lui offrir de la surface de travail en plus afin de maximiser son apport dans la visualisation de la SITAC et des systèmes de l'avion, ce qui peut demander une IHM complètement différente.

Modifié par Patrick
Lien vers le commentaire
Partager sur d’autres sites

Il y a 4 heures, Patrick a dit :

Mon sentiment c'est que ces dalles sont une solution de facilité.

Ça permet de reconfigurer une interface si jamais il faut la faire évoluer. Donc pas besoin de l'optimiser à fond dès le départ. Ça permet de ne pas penser une interface très ergonomique, et de laisser croire que la prise en main est aisée et rapide, alors qu'une vraie IHM avec de la boutonnique, et une formation afférente, seront toujours meilleures puisque permettant de contrôler l'avion du bout des doigts. Mais surtout plus chères.

Ça permet aussi de limiter la surface d'écran dans le cockpit par rapport à des écrans distribués, et de donner l'illusion d'une meilleure visibilité grâce à l'affichage en grand d'une fonction, en particulier celles liées aux optiques, que ce soit les nacelles ou les capteurs intégrés. Sauf que ces fonctions sont difficilement utilisables au combat s'il faut passer son temps à utiliser l'écran.
Les petits écrans ont aussi le bon goût d'être plus aisément préhensibles. Et c'est exactement ce qu'il leur faut pour que leur fonction tactile n'aboutisse pas à des catastrophes du genre "j'ai glissé chef".

Idéalement je pense qu'une surface d'affichage large dédiée aux optiques et/ou à la SITAC, accompagnée d'écrans latéraux dédiés aux systèmes, le tout contrôlable essentiellement via un HOTAS bien pensé, est nécessairement meilleure pour un pilote.

Pour un NOSA c'est encore plus le cas, mais il faut pouvoir lui offrir de la surface de travail en plus afin de maximiser son apport dans la visualisation de la SITAC et des systèmes de l'avion, ce qui peut demander une IHM complètement différente.

J'ai créé un sujet sur l'UDOP qui n'est pas sans rapport avec vos questionnements.

  • Merci (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

On est très HS mais c'est très intéressant.

J'ai relu ton sujet Pic'.

Le 12/11/2020 à 16:36, Picdelamirand-oil a dit :

Alors maintenant il faut bien comprendre qu'il est illusoire de vouloir présenter une situation complète: en effet le cadre spatio-temporel serait le monde avec tout le passé et le futur prévisible et il faudrait mélanger la situation tactique, logistique, la situation électronique ( SIGINT, ELINT) la situation amie et la situation ennemie et beaucoup d'autre chose. Ce serait tout simplement non exploitable, c'est pourquoi en général on établit la situation demandé par la hiérarchie.

Alors maintenant se pose la question de la situation établie non pas par une personne mais par les membres d'un réseau qui sont des combattants, dont les priorités ne sont pas les mêmes, mais qui doivent travailler en temps réel harmonieusement au bénéfice de tous.

Ce point est adressé au travers d'une image (picture). L'image en question n'est qu'une façon, géographique, de présenter la situation: les informations les plus immédiates et importantes sont présentées de manière symbolique, et il faut désigner les symboles pour avoir des informations complémentaires. Ainsi le symbole d'une piste ami n'est pas le même que le symbole d'une piste ennemie et celui d'un bateau n'est pas le même que celui d'un avion, etc...

Historiquement il y a eu les concepts de COP, de CROP et de UDOP.

COP signifie Common Opérational Picture (Image Opérationnelle Commune): l'idée c'est que si on a la même Image, on va être plus cohérent dans ses actions.

Les réseaux permettent aux opérateurs d'accéder à des quantités importantes d'informations en temps réel, et elles offrent la possibilité de mettre en place des capacités de commandement et de contrôle (C2) qui améliorent l'efficacité opérationnelle grâce à une connaissance partagée de la situation.

Il faut ajouter des capacités d'aide à la décision et de visualisation efficaces, qui soient intuitives pour faciliter la connaissance partagée à tous les échelons du C2.  Dans un contexte de C2 distribué on y arrive en créant une image opérationnelle commune (COP) appropriée. Cette image facilite la planification en collaboration et aide le commandement à obtenir une connaissance cohérente de la situation.

La CROP est la Common Relevant Operational Picture, où on cherche à mieux sélectionner les informations que l'on partage, cela n'a été qu'une étape vers l'UDOP qui est l'User Defined Operational Picture où chaque utilisateur du réseau définit l'image qu'il veut voir.

D'où il ressort si j'ai bien compris que si on veut pouvoir faire se croiser différentes données, surtout cartographiques, établissant la SITAC selon des critères pertinents et gérés en temps réel par les coordinateurs des forces alliés, et ce alors que le volume de données augmente et que les utilisateurs vont être amenés à les croiser, il faut un plan de travail suffisamment large non seulement au niveau du C2 mais aussi pour le pilote, car le volume d'informations fusionné devient tel qu'il peut être nécessaire de recommencer à les juxtaposer sur un affichage commun et consultable plus rapidement que s'il fallait passer d'un écran à l'autre. La juxtapostion pouvant tout à fait devenir incrustation.

Jusqu'ici ça me va.

Voilà un .pdf qui dans son introduction présente l'utilité de l'UDOP de façon très condensée et donc parcellaire, mais avec une définition bien trouvée:
https://www.mitre.org/publications/technical-papers/user-defined-operational-pictures-for-tailored-situation-awareness

The purpose of the UDOP capability is to create, visualize, and share decision-focused views of the operational environment for decision-makers to support accurate situation awareness and timely decision-making in a distributed net-centric C2 environment. Net-centric C2 architectures will make available a considerable amount of information that can be injected into an operational picture for situation awareness and decision support; the UDOP capability enables transformation of that universe of data into a decision-focused narrative of the battlespace. Unlike a traditional common operational picture (COP), a UDOP allows the user to select what information should be included in or excluded from the data set defining the operational picture at the source. The core elements of a UDOP capability are data access mechanisms to build a UDOP from the outputs of systems of record using net-centric means; visualization and presentation tools that provide effective situation awareness; business logic for creating added-value information products derived from raw data inputs, and collaboration tools to enable shared situation awareness.

"decision-focused narrative of the battlespace". C'est assez révélateur.

Et bien après la relecture de ton sujet, Pic', j'ai la nette impression qu'une fois le concept poussé dans ses retranchements ; où l'avion, lui-même en collaboration avec les autres effecteurs, le réseau, appliquant ses propres logiques de décision guidées par le C2, pourrait nourrir la SITAC globale en affichant uniquement ce que chacun a besoin de savoir, ce qui permet le "decluttering", mais en permettant au pilote de voir par lui-même quelle logique le système a appliqué pour lui offrir autant qu'au C2 un panel de décisions données ; on retombera inlassablement sur un écueil qui sera celui des informations pertinentes mais non-fusionnables car impossibles à représenter en 2 dimensions, projetées sur un écran unique aux côtés de la SITAC.

À l'aulne de cette hypothèse j'ai le sentiment que si on installe une grande dalle type "plan de travail" dans le cockpit et qu'on ne fait rien d'autre pour répondre aux enjeux de l'UDOP futur dans un environnement de plus en plus riche en menaces, on assistera à terme au même écart de performances entre les avions équipés de la sorte et ceux ayant repensé leur logique d'affichage vers quelque chose de beaucoup plus inclusif, qu'entre les avions affichant leurs informations recueillies de manière non-fusionnée et ceux les affichant de manière fusionnée il y a 20 ans, ce qui constitue une énorme part de l'intérêt présenté par les appareils modernes apparus dans les années 90 surtout en occident.

 

Je me trompe peut-être, mais si ce n'est pas le cas, je me pose donc deux questions:

 

  • Un pilote ne pourrait pas se passer d'une grande dalle qui seule permettrait d'afficher de façon juxtaposée ce qui ne sera pas fusionnable(cas typique: une image vidéo d'un côté de l'écran montrant un secteur surveillé par les optiques de l'avion, et une illustration de l'autre côté de l'écran du secteur visualisé sur la mappemonde, matérialisé par un polygone par exemple)

Franchement ce serait surprenant et surtout ça me semble faire complètement abstraction des problématiques d'ergononomie du poste de combat. Il serait sans doute plus intéressant de projeter directement dans un casque à réalité augmentée l'image de l'optique en question tout en permettant au pilote de regarder ailleurs que dans sa direction (c'est déjà le cas avec le thalès Scorpion/HMCS et le HMDS du F-35 est supposé faire encore mieux) quitte à agrémenter l'affichage de symbologie témoignant d'une évolution de la situation à l'endroit indiqué.

Se souvenir de certaines notions d'ergonomie visuelle: https://ergonomie-visuelle.com/vision-travail-ecran/

Les postes de travail équipés de TEV sollicitent fortement le système visuel. L’opérateur qui passe la majorité de son temps devant un écran modifie quelque 30.000 fois par jour son angle d’observation. Ses yeux passent de l’écran au clavier ou à la lecture de ses documents. Dans la recherche d’informations interviennent des mouvements oculaires très complexes car une vision nette implique de nombreux réglages réflexes.

Remplacer ici clavier et document par HUD et flux vidéo venu d'une nacelle optique.

 

  • Une grande dalle serait-elle seule à même de permettre de basculer d'un affichage d'une source d'informations fusionnées pertinente à un autre?

 

Et bien dès qu'on prend en compte le nécessaire besoin de corrélation visuelle entre mappemonde, définition des points d'intérêts de la map, et aspect de l'avion (assiette inclinaison vitesse altitude cap) qui sont encore à ce jour déterminants dans sa capacité à engager le combat ou à recueillir des informations selon un certain angle et durant un certain temps sur une certaine trajectoire, par exemple en considérant l'ouverture angulaire des antennes de l'avion, cette assertion me semble cavalière: un pilote auquel on fournit plus d'informations pertinentes, même simplifiées par la fusion, devra regarder encore plus partout.

 

En aparté l'EODAS et le casque à réalité augmentée HMDS associé du F-35 prennent tout leur sens si on s'attarde sur les problématiques soulevées par ces questions d'UDOP, mais continuent de limiter l'affichage au seul champ de vision du pilote et ne permettent pas encore une réalité augmentée suffisamment enrichie, puisqu'ils se "contentent" de supprimer les limites visuelles posées par la carlingue de l'avion à travers laquelle les yeux du pilote ne voient évidemment pas, tout en proposant d'enrichir à la fois les images optique et IR avec une symbologie d'objectifs, et en y ajoutant des outils visuels aidant le pilote à aborder les situations rencontrées.

C'est très bien pour les phases d'engagement où le pilote est un outil au service du C2, mais c'est moins bien pour les cas où le pilote interagit avec les unités sur le terrain et se contente de recevoir des instructions simples du C2 (généralement limitées à l'autorisation d'engagement) auquel cas lui fournir un rappel visuel permanent de son géopositionnement dans l'espace par rapport au champ de bataille serait un gros plus.

Une solution pour sortir de ces limitations serait d'imaginer une superposition d'images du champ de bataille: ce que voit le pilote, et ce que voit le C2, de plus loin et de plus haut ou selon un angle pertinent. Typiquement les deux affichages seraient projetés dans le casque et disposés l'un au-dessus de l'autre, HUD en haut, SITAC 3D isométrique en bas, celle-ci étant capable d'une rotation autour de l'autre afin de toujours symboliser l'inclinaison de l'avion et de mettre le sol en direction du sol, même si l'avion est sur la tranche. Le tout devant être placé sur un tunnel visuel suffisamment étroit pour que le pilote ne perde jamais de vue son positionnement dans l'air. Maintenant, sans "caméra intelligente" qui montrerait au pilote ce qu'il veut voir suffisamment simplement, ce système ne servirait à rien.

EODAS et HMDS sont des systèmes qui sur le papier sont déjà le nec plus ultra de ce que l'on peut faire en ce moment en termes de SITAC, et pourtant eux aussi seront soumis à la dure loi de l'augmentation du volume de données à traiter par les avions.
Or ils n'évitent pas le tropisme du grand écran plat unique servant d'affichage SITAC, ce qui à l'aulne de mes hypothèses me laisse là aussi penser qu'il s'agit d'un pis-aller en attendant autre chose.

 

Pour illustrer concrètement un cas où ces grands affichages uniques même enrichis par un casque à réalité augmentée atteignent leurs limites, envisageons la question de la gestion de la 3D dans un environnement de bataille futur, face à la multiplication des objets qui ne voleront pas aux mêmes altitudes que les avions de combat mais pourront être menaçants envers eux ou menacés par eux.
Si j'inclus par exemple dans une SITAC les capacités de brouillage EM distribuées d'un essaim de mini-drones se déplaçant au-dessus du champ de bataille et masquant un ennemi lui-même en mouvement, un affichage 2D suffira-t-il? Surtout si l'essaim peut se scinder, se "réparer" en remplaçant les éléments perdus, se cacher d'un émetteur ou d'un récepteur derrière un masque? Capmat parlait du comportement des bancs de poissons dans ton topic, c'est une belle image. Comment une SITAC 2D sur dalle, autant côté avion que côté C2, peut espérer représenter de façon précise et pertinente le comportement d'une telle capacité dans un monde où ce genre de mini-drones pourront peut-être grimper à 10.000 pieds mais aussi se faufiler au ras des ruelles?

Voilà typiquement le genre de situations qui vont devenir très limitantes pour les affichages actuels même les plus avancés. Ce qui sera montré sur la mappemonde 2D n'aura aucune corrélation avec ce qui sera observé en 3D par les avions de combat. Même si les données temps-réel sont envoyées brutes au C2 qui se chargera de les fusionner et de les redistribuer, sans un affichage holographique 3D purement isométrique, jamais le C2 n'aura une vision claire du comportement potentiel des capacités de l'essaim de drones en question. Or devoir présenter la même scène d'une façon différente, ça reste équivalent à ne pas savoir fusionner une SITAC. Sauf à supposer que cet affichage soit manipulable à l'envi et permette un changement de point de vue (exactement comme sur les versions modernes de googlemaps enrichis avec les fonctionnalités de google earth, puisque tu cites ce service dans ton sujet.

Seul l'ordinateur saura à quoi s'en tenir. L'oeil et le cerveau humain? C'est moins sûr.

Il ne restera alors plus qu'à subir une simplification forcée des ROE parce qu'on ne saura pas assumer une situation complexe, avec tout ce que ça signifie si l'ennemi se sert de ce facteur pour imposer son initiative et son momentum (imbrication avec des civils, camouflage, déception...)

 

Dans ce contexte, dalle plane large ou pas dans l'avion, quelle importance?

- Le débat ne porte-t-il pas plus sur la nature et la pertinence de ce qui est affiché, puis sur le fonctionnement du réseau et l'évolution des logiques d'engagement ou de désengagement que pourra proposer le centre de commandement et de contrôle? (je pense très fort, si je prends ce qui existe aujourd'hui, et pour rester du côté de l'avion, à Spectra qui peut tirer des leurres lui-même et proposer des solutions d'évasive au pilote du Rafale) Sauf que ça nous rapproche de systèmes d'armes autonomes.

- Et surtout l'existence de ces facteurs ne plaide-t-elle pas pour des avions biplaces où le pilote sera systématiquement accompagné d'un officier systèmes d'armes qui ne sera pas de trop vu le volume d'informations à traiter?

 

Il faut plutôt rechercher une nouvelle façon de faire cohabiter l'affichage de la situation tactique et celui de la situation pratique. Et garder à l'esprit que plus on voudra fusionner et enrichir, et plus ce sont les ordinateurs qui prendront les décisions, parce que les humains ne seront simplement pas aptes à donner les réponses complexes aux problèmes complexes qui se poseront.

  • Merci (+1) 1
  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

C'est à ce moment de la réflexion que l'on introduit l'intelligence artificielle, l'affichage des données étant important, mais son traitement c'est-à-dire le tri de celles-ci par ordre d'importance en temps réel ou presque au vu d'une situation tactique donnée à l'instant T en vue de sa présentation au(x) pilote(s) l'étant peut-être encore plus

Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Restaurer la mise en forme

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

 Share

  • Statistiques des membres

    5 967
    Total des membres
    1 749
    Maximum en ligne
    Stevendes
    Membre le plus récent
    Stevendes
    Inscription
  • Statistiques des forums

    21,5k
    Total des sujets
    1,7m
    Total des messages
  • Statistiques des blogs

    4
    Total des blogs
    3
    Total des billets
×
×
  • Créer...