Aller au contenu
AIR-DEFENSE.NET

herciv
 Share

Messages recommandés

  • 2 weeks later...

Parlons un peu de technologie de "furtivation" dans l'infra rouge :

https://www.futura-sciences.com/tech/actualites/drole-tech-drole-tech-meteo-futur-feuille-furtive-rend-invisible-grand-orchestre-robots-71718/

Cette feuille rend invisible aux caméras infrarouges des drones

Des chercheurs de l'université du Wisconsin-Madison ont développé une « feuille furtive » qui peut efficacement cacher les humains, les voitures et d'autres objets de la détection par la caméra infrarouge d'un drone. La feuille en question présente une épaisseur équivalente à dix feuilles de papier. Souple, elle peut absorber 94 % de la lumière infrarouge qui la frappe grâce à sa composition à base de silicium noir dont les cristaux créent l'apparence d'une « forêt » d'aiguilles qui piègent les ondes lumineuses. Cette feuille a déjà été testée sur un corps humain ainsi qu'une voiture. Les chercheurs veulent désormais poursuivre le développement, en espérant que leur innovation puisse un jour servir aux armées sur le champ de bataille.

Pour en savoir plus : https://onlinelibrary.wiley.com/doi/abs/10.1002/adem.201800038

La « feuille furtive » développée par l'université du Wisconsin-Madison bloque 94 % de la lumière infrarouge. © Hongrui Jiang, University of Wisconsin-Madison 

Lien vers le commentaire
Partager sur d’autres sites

Sauf que ça crée un trou noir sur un fond pas forcément tout noir ... il suffit alors de chercher les trous ... c'est la même problématique avec certaines solution de furtivité radar ou sonar.

L'objectif n'est pas de créer un écran noir .. mais bien un illusion de transparence. On sait le faire avec les onde métallique pour des spectre étroit ... un peu dans l'EM aussi ... notamment pour rendre transparente les éoliennes.

  • J'aime (+1) 1
  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

  • 1 year later...
  • 3 months later...

Un grand progrès vient d'être réalisé, concernant le pointage rapide des menaces asymétriques, grâce à la campagne d'essais du pointeur intuitif (IPD = Intuitive Pointing Device" de la PME SeaOwl Technology Solutions qui vient d'avoir lieu pendant  4 jours sur le PAG 733 "La Confiance" >

https://www.navalnews.com/naval-news/2020/06/seaowl-technology-solutions-completes-sea-trials-of-its-ipd-aboard-la-confiance-class-patrol-vessel/

L'article explique que le dispositif portable a permis de détecter un semi-rigide en approche à 2.7 Mn (soit 4800 mètres), d'en reconnaître le type exact à 1.6 Mn (soit 2800 mètres), et de voir exactement combien il y avait de personnes à bord à 0.5 Mn (soit 900 mètres).

Ensuite, le pointage et la désignation de la cible au profit du canon Narwhal-20B (auquel l'IPD était couplé) semble avoir parfaitement fonctionné, permettant des tirs précis jusqu'à 3000m. La vidéo YouTube inséré dans l'article montre bien qu'en à peine quelque secondes la canon tourne et se pointe sur la cible, désignée par le marin qui est sur la terrasse avant du PAG avec l'appareil en mains.  

Modifié par Bruno
  • J'aime (+1) 2
Lien vers le commentaire
Partager sur d’autres sites

  • 11 months later...

Raytheon développe un système optronique "Neuromorphique". D'après ce que je comprends de l'article, il consommera moins d'énergie, tout en étant plus efficace dans des conditions difficiles. Cela grâce à des circuits imitant l'organisation du cerveau humain ; ces circuits s'animeront (et donc ne consommeront de l'électricité) que lorsqu'il y a des changements dans le décor. 

https://www.shephardmedia.com/news/defence-notes/raytheon-develop-next-generation-neuromorphic-came/?utm_source=twitter&utm_medium=auto_post&utm_campaign=news_promo

 

 

  • Merci (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

  • 11 months later...
6 minutes ago, hadriel said:

Mort de rire, les gars ont réussi à réinventer le compas de relèvement et en plus ils en sont fiers. Je croyais que c'était de base dans toutes les jumelles.

A priori c'est la position du spectateur n'est pas connu non plus ... ou du moins de manière assez approximative.

... donc je suppose que le bidule compare ce qu'il voit, à une carto 3D fine - plutôt un modèle de surface - préchargé. Ça lui permet de se localiser lui même ... mais aussi bien sur l'intersection entre une ligne de visée et le modèle de surface.

C'est une forme de TERrain COntour Matching.

Lien vers le commentaire
Partager sur d’autres sites

En fait c'est encore plus con c'est de la trilatération:

https://www.edrmagazine.eu/positioning-without-gps-signal-no-problem-thales-sophie-with-visioloc-is-there

Citation

From the name we can deduce what it is all about, vision and localisation. The two latest Sophie iterations can be loaded with a 0.5 meters resolution Geographic Information System covering 200×200 km contained in a Micro-SD card, “but in 5 years time this will increase to 500×500 km. Looking at the map,” Pierre-Yves Guinet, Product Line Manager at Thales Soldier’s Optronics says. The map can be easily seen onto a ruggedised tablet computer, linked to the Sophie either via Wi-Fi or by cable, and it is possible to pick up three notable features on the ground, from bell towers to trees to water tanks, that are in sight; two features would suffice, however the third allows to highlight potential errors and increases accuracy. The operator picks up the first point with his Sophie, laser it to get the distance, and then must correlate it with the map. The field of view used and the distance allow to easily bring the point on the map, which gives the grids of the first point, a virtual circle with its radius equal to the distance measured with the LRF being drawn. The operation is repeated for the two other features, and the interception of the three circles gives the operator’s position. Having the coordinates of the other three points and the distances, it is now just a matter of calculation. Overall, it takes around three minutes to complete the procedure.

 

  • Merci (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Il y a 2 heures, hadriel a dit :

Mort de rire, les gars ont réussi à réinventer le compas de relèvement et en plus ils en sont fiers. Je croyais que c'était de base dans toutes les jumelles.

Il y a 2 heures, hadriel a dit :

Tu n'es pas convaincu par le fait que cette solution soit embarquée et permette de se passer, grâce je suppose à une centrale inertielle, de recalage par satellite ou par relèvement d'un point connu justement? Le tout numérisé et facilement utilisable avec éventuellement à l'avenir une projection dans la visière connectée d'un soldat? Et le tout sans même une liaison de données constante?

Je veux bien qu'il n'y ait concrètement rien de nouveau, mais n'y-a-t-il pas là une vraie amélioration?

Ou alors j'ai mal saisi et il faut m'expliquer en détails. :unsure:

Lien vers le commentaire
Partager sur d’autres sites

Sisi c'est très utile pour se passer de GPS, c'est juste que Thales en fait tout un foin alors que c'est un truc évident qui aurait du être la depuis le début. Mais sinon avec un télémètre décathlon et une carte IGN tu peux faire pareil.

La ou il y a une nouveauté j'ai l'impression c'est qu'une fois la position connue il n'y a plus besoin du télémètre, la position des objets est déduite de l'intersection de la ligne de vue et du modèle numérique de terrain.

 

  • Merci (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Il y a 13 heures, hadriel a dit :

Mort de rire, les gars ont réussi à réinventer le compas de relèvement et en plus ils en sont fiers. Je croyais que c'était de base dans toutes les jumelles.

Le problème c'est pas le produit, c'est le journaliste

Je n'ai jamais vu un sujet aussi technique et précis traité de cette manière, le gars en fait des tonnes de lourdeurs. 

C'est plus un publi reportage où il régurgite le récit de Thalès qu'un véritable article 

 

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

C'est comme beaucoup de systèmes informatiques modernes. Le plus, c'est la connection qui fait que beaucoup de fonction autrefois déjà existante mais complexe, lourde et partiellement manuelle deviennent simple et rapide. Là, c'est le regroupement d'une carte informatique précise et de la jumelle ayant déjà le télémètre et les capacités de relèvement. Et ensuite, cette position est déjà dans la jumelle donc peut être réutilisé pour les autres fonctions. Et quand il y aura des algorithmes de reconnaissance plus évolué, la jumelle trouvera peut être toute seule les amers nécessaire juste en faisant un 180° avec les jumelles. Puis, elle saur le faire en mouvement, etc. Il y a encore des marges de progrès. Je note que la connexion possible à un écran et à une radio j'imagine fait que la jumelle tend à devenir une sorte d'ordinateur de commandement portable.

Au passage, il faudrait surement la même fonction dans le viseur du MMP et dans la vétronique des véhicules ...

  • Merci (+1) 1
  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Il y a 9 heures, Deres a dit :

 

Au passage, il faudrait surement la même fonction dans le viseur du MMP et dans la vétronique des véhicules ...

J'ose espérer qu'on est capable de recaler les centrales des véhicules avec le télémètre + le compas, et facilement, ce serait un scandale sinon. C'est pas comme si on parlait de brouillage GPS depuis au moins 10 ans.

Lien vers le commentaire
Partager sur d’autres sites

Il y a 15 heures, hadriel a dit :

J'ose espérer qu'on est capable de recaler les centrales des véhicules avec le télémètre + le compas, et facilement, ce serait un scandale sinon. C'est pas comme si on parlait de brouillage GPS depuis au moins 10 ans.

Oui, mais là on est sur une fonction bien plus précise et intégrée, se servant de la carte détaillée, ne se servant pas du compas peu précis ni n'ayant besoin d'un bullage du télémètre et faisant un calcul 3D complexe et utilisant 3 amers pour éviter les erreurs. C'est quand même le niveau au dessus en terme de précision et de facilité.

Lien vers le commentaire
Partager sur d’autres sites

19 minutes ago, hadriel said:

On ne sait pas faire des compas précis?

Si, un théodolite de chantier est parfaitement précis. Les "compas électronique" ne sont d'ailleurs pas super-précis ... ils sont contaminés par l'électronique autour.

Après c'est peut être plus rapide et plus idiot-proof. Faudrait voir l'interface et le mode de fonctionnement exact.

Lien vers le commentaire
Partager sur d’autres sites

  • 2 weeks later...
Le 16/06/2022 à 12:38, g4lly a dit :

Si, un théodolite de chantier est parfaitement précis. Les "compas électronique" ne sont d'ailleurs pas super-précis ... ils sont contaminés par l'électronique autour.

Après c'est peut être plus rapide et plus idiot-proof. Faudrait voir l'interface et le mode de fonctionnement exact.

Oui en effet après renseignement si il y a des objets métalliques autour ça met un biais dans la mesure. Safran propose donc un compas inertiel beaucoup plus précis que les compas magnétiques, le Sterna:

https://www.safran-group.com/fr/produits-services/systeme-dappui-feu-interarmees-base-sterna

https://www.militarysystems-tech.com/sites/militarysystems/files/supplier_docs//STERNA Brochure.pdf

C'est beaucoup plus précis mais ça pèse son poids et il faut savoir fabriquer des centrales inertielles. C'est ça que Thales cherche à concurrencer.

  • Merci (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

46 minutes ago, hadriel said:

Oui en effet après renseignement si il y a des objets métalliques autour ça met un biais dans la mesure. Safran propose donc un compas inertiel beaucoup plus précis que les compas magnétiques, le Sterna:

https://www.safran-group.com/fr/produits-services/systeme-dappui-feu-interarmees-base-sterna

https://www.militarysystems-tech.com/sites/militarysystems/files/supplier_docs//STERNA Brochure.pdf

C'est beaucoup plus précis mais ça pèse son poids et il faut savoir fabriquer des centrales inertielles. C'est ça que Thales cherche à concurrencer.

Le chercheur de nord c'est vieux comme le gyroscope ou presque ... mais ça marche bien - ca "détecte" la direction de l'axe de rotation de la terre - ... par contre la stabilisation est parfois longue. Sur les anciens système ça pouvait prendre 10 à 20 minutes.

https://fr.wikipedia.org/wiki/Gyrocompas

Lien vers le commentaire
Partager sur d’autres sites

Depuis le début de l'année j'ai été amené à me pencher sérieusement sur un capteur optique assez pointu, la rétine. Ce qui m'a valu de me taper pas mal de recherche sur pas mal de truc qui n'ont rien à voir avec la bio.

Traditionnellement il est assez courrant de faire l'analogie entre les capteur optique et la rétine. Visiblement ce n'est pas faire honneur à la complexité d'un système comme l'oeil. Je m'explique, vous me direz si je me plante. Un capteur optique traditionnelle est un système caractérisé par la capacité de retranscrire 2 informations : l'intensité lumineuse et la couleur sur une surface donnée. La rétine elle se caractérise par sa capacité à retranscrire principalement 2 choses : la couleur toujours et le contraste local. 

Ce qui fait en partie que le système photopique (la vision diurne par les cônes schématiquement) ne sature jamais. Quelque soit l'intensité lumineuse. On parle d'un facteur d'un million entre l'intensité la plus faible et la plus forte couramment soumise à notre oeil. Vous me direz qu'il n'y a rien d'exceptionnel. Ce qui l'est selon moi c'est que cette capacité à ne jamais saturer est local. La rétine est capable de restituer une image où chaque point de cette image ne sature pas et ou l'information est toujours transmise de façon optimale !

Avec tout ça j'en arrive à une question. Est ce qu'il existe de tel capteur en optique ? Sinon y a t'il des projets en cours ? Est ce que cela pourrait intéresser dans le civil comme dans le militaire ?

  • J'aime (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

13 hours ago, Nec temere said:

Avec tout ça j'en arrive à une question. Est ce qu'il existe de tel capteur en optique ? Sinon y a t'il des projets en cours ? Est ce que cela pourrait intéresser dans le civil comme dans le militaire ?

Tu ne mélanges pas le capteur lui même et le traitement qui est fait derrière?

Les "pixel photosensible" ne sont pas quantifié un à un brutalement ... mais subissent plusieurs niveau de traitement avant de faire remonter l'info.

En gros c'est comme si l’œil composait une image avec plusieurs images et plusieurs sous images, le cerveaux reproduisant le même processus lorsque que l’œil balaie une scène.

En gros quand tu regardes un décor fixe comme l'intérieur d'une église, ton œil effectue en pratique des dizaine de prise de vue avec des "ouvertures" et des "focus" différent - c'est le balayage naturel de l’œil qui se déroule à ton corps défendant - ... et fusionne ensuite les différentes exposition et plage de netteté.

Au final ton cerveau produit une image mentale qui est partout parfaitement exposé ... et partout nette ... et panoramique ...

On peut reproduire cela en photographie numérique en procédant à un post processing des images prises, avec une passe pour la fusion d'exposition qui produira des image HDR - ici on "empile" les infos de luminance de plusieurs prise de vu identique ou seule la vitesse change et donc le nombre de quanta de lumière nécessaire pour allumer ou pas chaque pixel -, puis une passe pour fusionner ces image en netteté - ici on ne conserve que les zones qui on le meilleur micro-contraste local -, et enfin une passe pour coller les images bord à bord de manière à produire un panoramique avec une compensation de l'exposition sur chaque pour que les images se fondent les unes avec les autres.

Dans l’œil c'est en partie gérer directement au niveau du collecteur des cônes et bâtonnets ... dans les diverses cellules qui effectuent les sommations spatiales locale avant d'envoyer l'information de luminance pré-traité dans nerf optique pour un post traitement dans cerveau.

Pour les capteur optronique on ne fait pas ce prétraitement au niveau du capteur, ni à l'intégrateur/sommateur ... on délègue tout au post traitement.

  • Upvote (+1) 1
Lien vers le commentaire
Partager sur d’autres sites

Il y a 5 heures, g4lly a dit :

Tu ne mélanges pas le capteur lui même et le traitement qui est fait derrière?

Les "pixel photosensible" ne sont pas quantifié un à un brutalement ... mais subissent plusieurs niveau de traitement avant de faire remonter l'info.

En gros c'est comme si l’œil composait une image avec plusieurs images et plusieurs sous images, le cerveaux reproduisant le même processus lorsque que l’œil balaie une scène.

En gros quand tu regardes un décor fixe comme l'intérieur d'une église, ton œil effectue en pratique des dizaine de prise de vue avec des "ouvertures" et des "focus" différent - c'est le balayage naturel de l’œil qui se déroule à ton corps défendant - ... et fusionne ensuite les différentes exposition et plage de netteté.

Au final ton cerveau produit une image mentale qui est partout parfaitement exposé ... et partout nette ... et panoramique ...

On peut reproduire cela en photographie numérique en procédant à un post processing des images prises, avec une passe pour la fusion d'exposition qui produira des image HDR - ici on "empile" les infos de luminance de plusieurs prise de vu identique ou seule la vitesse change et donc le nombre de quanta de lumière nécessaire pour allumer ou pas chaque pixel -, puis une passe pour fusionner ces image en netteté - ici on ne conserve que les zones qui on le meilleur micro-contraste local -, et enfin une passe pour coller les images bord à bord de manière à produire un panoramique avec une compensation de l'exposition sur chaque pour que les images se fondent les unes avec les autres.

Dans l’œil c'est en partie gérer directement au niveau du collecteur des cônes et bâtonnets ... dans les diverses cellules qui effectuent les sommations spatiales locale avant d'envoyer l'information de luminance pré-traité dans nerf optique pour un post traitement dans cerveau.

Pour les capteur optronique on ne fait pas ce prétraitement au niveau du capteur, ni à l'intégrateur/sommateur ... on délègue tout au post traitement.

Je ne pense pas me tromper concernant le codage du contraste et l'utilisation optimale des plages de fonctionnement des phtorecepteurs. Tu as raison de dire qu'il y a une pré intégration du signal dans la rétine. 

Ici tu décris plusieurs chose. L'intégration verticale, par les cellules de premier rang (les phtorecepteurs); les cellules de second rang (les cellules bipolaires); et celles de troisième rang (les cellules ganglionnaires, RGC).

Mais il existe une intégration horizontale grâce aux cellules horizontales et amacrine. c'est grâce à elles qu'il y a pré intégration.

Mais tu as raison par ailleurs. La rétine produit plusieurs représentations d'une même image. Ça viens des différents sous types de RGC. Ils codes les différente contraste spatiales, temporelles, couleurs. Ils permettent aussi d'intégrer les mouvements dans les images.

Tout ça ce fait dans la rétine bien avant que le cerveau intègre toutes ces infos.

Lien vers le commentaire
Partager sur d’autres sites

  • 1 month later...

Je reviens dessus maintenant que j'ai un peu plus de temps.

@g4lly tu as l'air de bien connaître le sujet, j'avoue que c'est nouveau pour moi donc ma maîtrise est relative. Disons que je ne connais bien que la rétine.

Selon toi la capacité à restituer une image net et non saturée vient d'une superposition d'images successives prisent avec plusieurs paramètres. 

Selon se que je sais, pour une image donné avec  le paramètre focal donné, la rétine (après adaptation à la luminosité) peut capter l'ensemble des informations que j'ai évoqué de manière optimale.

La similarité avec les autres systèmes optique c'est la capacité de géré l'ouverture pour ne pas saturer. Là où l'oeil se distingue c'est que l'étendue de la plage d'utilisation ne peut être expliqué par la seul variation de l'ouverture de l'iris. Si je comprend tout bien, cela vient de se que j'ai déjà évoqué plus haut, l'intégration horizontale. Tu dis que ça va peut être géré en post-traitement dans un appareil. Je me doutais de cette possibilité (la photo c'est pas mon truc paradoxalement). La où je vois une rupture c'est dans le phtorecepteurs, ici le cône. Il est capable d'adapter son seuil de détection. C'est un peu compliqué et j'avoue que c'est de la bio moléculaire un peu dur, je pense qu'il faudrait que je revienne dessus pour tout saisir. 

Ce qui fait que tout réuni, il est possible d'avoir le soleil en face de toi et d'être quand même capable de voir l'environnement devant toi de manière optimale avec tout les détails. Pour moi quand tu prends une photo face au soleil bah c'est la merde. Si tu veux pas saturer tu as une image terne un peu dégueu.

Tu as une cellule photosensorielle avec une plage d'utilisation assez restreinte (les cônes sont assez bruyant) mais avec un seuil d'activation adaptable. Pour avoir l'information de luminosité dans l'image et l'ouverture de l'iris c'est géré par un système secondaire avec les ipRGC si je dis pas de conneries.

Du coup la vrai question c'est est ce que de pareil capteurs avec un seuil variable existe ? Sinon est-ce qu'il a des travaux dessus ? Et est-ce que ça a une utilité notamment dans le militaire. Ça te semble coller avec ce que tu connais de tout ça ?

Lien vers le commentaire
Partager sur d’autres sites

Il y a 2 heures, Nec temere a dit :

Du coup la vrai question c'est est ce que de pareil capteurs avec un seuil variable existe ?

Un capteur CMOS ça peut faire de la lecture non destructive et donc éventuellement ajuster le gain en fonction du niveau dans le pixel. Mais bon y'a toujours une limite avec le nombre d'électrons dans le puits du pixel, faut aussi le vider plus ou moins rapidement en fonction du signal.

Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Restaurer la mise en forme

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

 Share

  • Statistiques des membres

    5 964
    Total des membres
    1 749
    Maximum en ligne
    Aquaromaine
    Membre le plus récent
    Aquaromaine
    Inscription
  • Statistiques des forums

    21,5k
    Total des sujets
    1,7m
    Total des messages
  • Statistiques des blogs

    4
    Total des blogs
    3
    Total des billets
×
×
  • Créer...