Jump to content
AIR-DEFENSE.NET

«Big data» : le plan de la France pour concurrencer les géants américains


zx
 Share

Recommended Posts

un peu tard l'alternative française, le contrôle de l'information est une priorité majeure, savoir c'est le pouvoir comme dirait l'autre, les USA l'ont très bien compris,

plus on en sait sur vous plus on peut agir sur vous, c'est ce qu'on peut retenir du big data. et pourtant c'est aussi important

que la dissuasion nucléaire. dommage que Dassault c'est retiré d'un des projets du cloud. on  a autant de retard dans ce domaine que pour les drones.

 

«Big data» : le plan de la France pour concurrencer les géants américains

 

http://www.lefigaro.fr/secteur/high-tech/2014/07/07/01007-20140707ARTFIG00046-big-data-le-plan-de-la-france-pour-concurrencer-les-geants-americains.php

 

 

Plusieurs grandes entreprises, à l'instar d'Orange ou La Poste, chapeauteront des projets visant à exploiter intelligemment les données qu'elles recueillent sur leurs clients. Tout en leur garantissant le respect de leur vie privée.

 

Les assureurs, l'opérateur télécoms Orange ou encore le groupe d'énergie GDF Suez vont être en première ligne pour contrer les géants américains de l'internet, dans le cadre du plan Big Data qui vient d'être lancé, révèle le journal Les Echos .

 

Le comité de pilotage des plans de la Nouvelle France industrielle a validé mercredi six nouveaux plans, dont le Big Data, soit l'analyse de données à très grande échelle pour améliorer la connaissance des clients, anticiper les besoins du marché ou favoriser la communication des objets connectés. Le monde de l'informatique s'est déjà emparé de ce graal depuis quelques temps, c'est maintenant au tour des grandes entreprises d'autres secteurs de se placer sur ce nouveau créneau. Il s'agit de pouvoir faire face à la concurrence des grands groupes américains commeGoogleFacebookApple ou Amazon qui brassent déjà des milliards de données et se développent dans de nombreux domaines.

 

Une plateforme de contrôle de ses données personnelles

 

Selon le quotidien économique, qui a obtenu une copie du plan Big Data, ce dernier comprend 14 pistes avec des projets émanant de grands groupes comme Orange, La Poste, Covéa, Axa ou GDF Suez. Dans l'assurance, Covéa, qui chapeaute la MAAF, MMA et GMF, pilote deux projets, l'un sur les données des jeunes conducteurs et l'autre contre la fraude.

 

Orange va quant à lui œuvrer pour constituer une plateforme regroupant les données issues des objets connectés, tandis que GDF Suez, accompagné par Alstom et des PME, va travailler sur la ville intelligente, notamment en centralisant des données énergétiques et de transport.

 

De son côté, la Fédération Internet nouvelle génération, épaulée par Axa, la Banque postale et la Société générale, souhaite créer un «espace de confiance», où un individu pourrait contrôler l'ensemble des données qui le concernent. Un pied de nez à peine voilé à Facebook et sa gestion controversée des données personnelles de ses utilisateurs. Un moyen également de rassurer ceux qui craignent que Big Data ne rime avec Big Brother.

 

Enfin, le journal indique que d'autres projets n'ont pas été jugés suffisamment aboutis, comme celui que pourraient porter Air France et Accor pour faire concurrence au site de réservation Booking. Il n'est pas exclu qu'ils soient mis en oeuvre plus tard, une fois qu'ils auront été retravaillés.

 

 

Edited by zx
Link to comment
Share on other sites

C'est Big Brother accepté par tous, utilisé pour rendre plus performant la société de consommation, au bénéfice des marques qui nous vendent des pompes de sport à 100 €, alors qu'elles sortent d'usine à 5 €.

 

Un exemple:

Ta copine sur la photo, on voit bien qu'on peut lui refourguer du café, des clops, ça c'est sûr, et peut être aussi, de la musique heavy metal.

Par contre, on l'a sent pas trop pointu sur les fringues, la déco d'intérieur et la diététique; donc dans ces domaines, on ira pas trop s’embêter à essayer de lui vendre du bio  ou du Paul Gauthier.

 

Le Big Data, c'est une banque de données à la stasi (c'est à dire précise et hétéroclite) au bénéfice du commerce.

 

PS: Justement, pendant qu'on est sur le sujet, comment on fait pour faire valoir son "droit à l'oubli" auprès de Google?

Edited by syntaxerror9
  • Upvote 2
Link to comment
Share on other sites

Les données électroniques se différencient autour de 2 types : les données structurées, que tu retrouves typiquement dans des bases de données avec pour une personne son nom, son adresse, son n° de sécu, ... le tout générallement agencé de façon "structurée" (c'est à dire par exemple sans chiffre dans le nom, ...) et puis toutes des données non-structurées qui ne sont pas du tout répertoriées ou liées entre elles.

 

Grâce à a des capacités énormes de stockage et des systèmes de calcul de plus en plus puissants et moins cher, l'on est maintenant capables d'analyser des milliards d'info brutes et de retrouver des liens .... 

 

Exemple vécu : une interception téléphonique légale, permet d'identifier un n° de tél portable "jetable" (une simple carte, aucun moyen d'identifier l'acheteru/utilisateur), on trace ce n° auprès des différents mats GSM et l'on se rend compte que ce n° va du point A au point B distant de 80 km en environ une heure. On simule le trajet et l'on identifie immédiatement une route qui passe non loin des différents mâts. Dans ce pays la vidéo surveillance est très fortement implantée, on met en corrélation les temps de passage auprès des mats ,avec les temps de prise de vue des caméras le long de l'itinéraire, par recoupements on isole très rapidement une seule plaque passant à chaque fois aux différents endroits au même moment que le téléphone se loggue à un mât.

Reconnaissance des n° de plaques, permettant de suivre la voiture que l'on retrouve dans la ville B, garée à un endroit précis. Camera pointée sur la voiture permettant d'identifier le chauffeur ...

 

Exemple simple, idiot et très réliste de la technique Big Data dans le cadre de la sécurité intérieure, on compile des millions d'infos (chaque n° de GSM sur chaque mat, lié à chaque immatriculation passant sur les différentes caméras, ...).

 

Les capacités sont énormes et les applications dans des tas de technologies et business : biologie molléculaire, physique, marketing, ....

 

Clairon

  • Upvote 2
Link to comment
Share on other sites

Le Big Data il me semble que c'est aussi la mise en réseau des Data Center et de leurs capacités de stockage et de calcul. En gros ton terminal (PC,Tablette,SmartPhone) devient un simple écran relié via internet aux gros serveurs qui te servent d'ordinateurs. Le souci c'est que bien entendu tout est sur un serveur appartenant à un tiers, tu ne possèdes rien.

En gros tu loues un ordinateur, ce qui est pas mal c'est que ça te permet (par exemple) de jouer aux derniers jeux vidéos en UltraHD sans à avoir à payé un PC et à débourser des centaines de € pour le garder à jour, ça marche aussi pour les entreprises qui ont besoin d'une grande puissance de traitement/calcul et/ou stockage et qu'ils peuvent ainsi obtenir sans à avoir à investir eux même, en gros c'est du partage de capacités informatique et de logiciels, ça permet à tout le monde de profité du top de la technologie sans se ruiné.

Le problème c'est que au jour d'aujourd'hui c'est les groupes US qui tiennent les rennes de l'Internet, heureusement que les allemands cherchent à faire bougé les choses...

http://www.lefigaro.fr/secteur/high-tech/2014/06/19/01007-20140619ARTFIG00114-axel-springer-achete-20-du-moteur-de-recherche-francais-qwant.php

http://www.latribune.fr/technos-medias/internet/20140619trib000835957/pourquoi-axel-springer-investit-dans-l-anti-google-francais-qwant.html

http://www.lesnumeriques.com/qwant-moteur-recherche-francais-soutenu-par-axel-springer-n34811.html

http://www.usine-digitale.fr/article/le-moteur-de-recherche-qwant-accueille-axel-springer-a-son-capital.N270095

Edited by Conan le Barbare
  • Upvote 1
Link to comment
Share on other sites

C'est Big Brother accepté par tous, utilisé pour rendre plus performant la société de consommation, au bénéfice des marques qui nous vendent des pompes de sport à 100 €, alors qu'elles sortent d'usine à 5 €.

 

Un exemple:

Ta copine sur la photo, on voit bien qu'on peut lui refourguer du café, des clops, ça c'est sûr, et peut être aussi, de la musique heavy metal.

Par contre, on l'a sent pas trop pointu sur les fringues, la déco d'intérieur et la diététique; donc dans ces domaines, on ira pas trop s’embêter à essayer de lui vendre du bio  ou du Paul Gauthier.

 

Le Big Data, c'est une banque de données à la stasi (c'est à dire précise et hétéroclite) au bénéfice du commerce.

 

PS: Justement, pendant qu'on est sur le sujet, comment on fait pour faire valoir son "droit à l'oubli" auprès de Google?

oh la la quel bon exemple !!  

Franchement, y en a qui ont le don pour expliquer les choses!

Merci pour la tranche de rire Syntaxerror9

Link to comment
Share on other sites

c'est bien résumer syntaxeror9 :), l'exemple est à retenir

 

.

pour le droit à l'oubli, l'article et le lien google du formulaire

 

http://www.reponseatout.com/reponse-conso/telephonie-internet/google-france-reine-demandes-droit-a-oubli-a1013178

 

https://support.google.com/legal/contact/lr_eudpa?product=websearch&hl=fr

Edited by zx
  • Upvote 1
Link to comment
Share on other sites

C'est Big Brother accepté par tous, utilisé pour rendre plus performant la société de consommation, au bénéfice des marques qui nous vendent des pompes de sport à 100 €, alors qu'elles sortent d'usine à 5 €.

 

Un exemple:

Ta copine sur la photo, on voit bien qu'on peut lui refourguer du café, des clops, ça c'est sûr, et peut être aussi, de la musique heavy metal.

Par contre, on l'a sent pas trop pointu sur les fringues, la déco d'intérieur et la diététique; donc dans ces domaines, on ira pas trop s’embêter à essayer de lui vendre du bio  ou du Paul Gauthier.

 

Le Big Data, c'est une banque de données à la stasi (c'est à dire précise et hétéroclite) au bénéfice du commerce.

 

PS: Justement, pendant qu'on est sur le sujet, comment on fait pour faire valoir son "droit à l'oubli" auprès de Google?

 

venant juste de changer d'avatar, pour qu'on sache de qui il parle, voilà la photo :

 

femme_laide_avec_de_la_moustache.jpg

Link to comment
Share on other sites

  • 9 months later...

visiblement, bigdata ca ne paye pas forcément. j'ai regardé les Amazone Web Service, plus tu consomme plus tu payes,

mais c'est très lourd à utiliser, il ne faut pas oulbier de verifier que le traitement est bien terminé, sinon le compteur tourne.

 

il n'ont pas encore trouver la formule magique.

 

 

Amazon perdrait de l’argent dans le cloud computing

 

 

http://www.usine-digitale.fr/article/amazon-perdrait-de-l-argent-dans-le-cloud-computing.N323813

 

 

Mais visiblement en Europe on arrive pas à monter des sociétés numérique aussi puissante que google, facebook, yahoo, amazone,  qui ont le monopole sur le monde.  celui qui contrôle l'info a le pouvoir.

 

une perle rare, dailymotion qui passera sous contrôle vivendi, convoité par yahoo.

 

bigdata  qu'est ce que c'est

http://www.virtualscale.fr/index.php/big-data/big-data-qu-est-ce-que-c-est

Edited by zx
Link to comment
Share on other sites

High-tech américaine : une arme de domination massive

 

http://www.lesechos.fr/idees-debats/editos-analyses/0212346322-la-high-tech-americaine-arme-de-domination-massive-1111709.php

 

Microprocesseur, Internet, Google Car... de nombreuses innovations ont été initiées ou soutenues par le département américain de la Défense. Dans un XXI e  siècle dominé par le numérique, cela donne aux Etats-Unis un avantage ­concurrentiel ­considérable.

 

Par Benoît Georges Chef du service Idées et débats

 

Avez-vous déjà entendu parler de Palantir Technologies ? Probablement pas.

 

Pourtant, cette start-up spécialiste du Big Data a été cofondée il y a plus de dix ans par une star de la Silicon Valley, Peter Thiel, également à l’origine de PayPal et l’un des premiers investisseurs de Facebook.

 

Mieux encore : selon le « Wall Street Journal », Palantir vaudrait aujourd’hui 15 milliards de dollars , ce qui en ferait l’une des start-up non cotées les mieux valorisées au monde, derrière le fabricant de smartphones Xiaomi et la plate-forme Uber.

 

Malgré cela, Palantir ne communique quasiment jamais, loin des excès habituels des jeunes pousses californiennes. Raison de cette discrétion : ses algorithmes sont utilisés par la NSA, le FBI ou la CIA pour exploiter d’immenses quantités de données en recherchant les liens entre elles, par exemple dans la lutte contre le terrorisme – ils auraient notamment servi à traquer Oussama ben Laden. La CIA ne se contente d’ailleurs pas d’être un de ses clients : elle est aussi son principal financeur, à travers son fonds de capital-risque In-Q-Tel.

 

Le garage et le porte-avions

 

Palantir est la dernière d’une ­longue liste d’entreprises high-tech qui ont dû leur existence, et leur prospérité, aux subsides de l’armée et du renseignement américains. Loin des clichés des rebelles chevelus inventant l’ordinateur personnel dans les années 1970 (Apple) ou des étudiants un peu « nerds » fondant les nouveaux rois de l’Internet (Google, Facebook), la Silicon Valley n’aurait jamais connu l’essor qui est le sien sans l’appui des militaires, qui dès la fin de la Seconde Guerre mondiale ont inondé de contrats et de subventions les pionniers de l’informatique. Comme le résume Pierre Bellanger , auteur du livre « La Souveraineté numérique » (Stock, 2014) :

 

« On s’émerveille devant des start-up qui seraient nées dans des garages, mais on oublie de dire que le garage se trouve en fait sur un porte-avions ! »

 

Walter Isaacson, biographe officiel de Steve Jobs, revient longuement dans son dernier essai (« The Innovators », Simon & Schuster, 2014) sur la naissance de ce qu’il appelle le « complexe militaro-industrio-académique ». Isaacson en attribue la paternité à un seul homme, Vannevar Bush, qui fut à la fois ingénieur en électronique, entrepreneur (il cofonda le géant des systèmes de défense Raytheon) et chercheur au Massachusetts Institute of Technology (MIT).

 

Conseiller scientifique du président Roosevelt pendant la guerre, Vannevar Bush rédigea à sa demande, en 1945, un rapport intitulé « Science, The endless frontier ».

 

Sa conviction ? La recherche fondamentale est « absolument essentielle à la sécurité nationale », mais aussi « à la sécurité économique », car elle améliore la compétitivité des entreprises. Chercheurs, acteurs privés et militaires doivent donc travailler ensemble.

 

Ce rapport entraînera la création de la National Science Foundation, chargée d’allouer des crédits de recherche fédéraux. « La NSF et le département de la Défense (...) devinrent vite les premiers financeurs de la recherche, dépensant autant que les industriel privés entre les années 1950 et les années 1980 », écrit Isaacson.

 

Du processeur à la Google Car

 

Soixante-dix ans après le rapport de Vannevar Bush, la liste des innovations dues au « complexe militaro-industrio-académique » ressemble à un catalogue de la high-tech américaine.

 

Le transistor au silicium, qui donna son nom à la Silicon Valley, a été mis au point par Fairchild Semiconductors, dont l’armée fut le premier client – ses meilleurs ingénieurs partirent ensuite fonder Intel.

 

Quant à Internet, il n’aurait jamais existé sans la Darpa (Defense Advanced Research Projects Agency), l’agence du Pentagone créée en pleine guerre froide pour stimuler l’innovation face à la menace soviétique. Même l’inoffensif Siri, le système d’assistant vocal de l’iPhone d’Apple, a été mis au point grâce à des financements de la Darpa par SRI International, un « spin off » de l’université Stanford.

 

Mais c’est Google qui rassemble aujourd’hui le plus de proches de la Darpa. Vinton Cerf , vice-président et « Chief Internet Evangelist » du groupe, travailla avec l’agence du Pentagone pour mettre au point le protocole de base d’Internet, TCP/IP.

 

La Google Car est issue du ­concours de voitures autonomes Darpa Grand Challenge et la start-up de robotique Boston Dynamics, rachetée par Google en 2013, fut longtemps financée par l’agence. Le groupe de Mountain View a même embauché l’ancienne directrice de la Darpa, Regina Dugan, pour piloter une équipe chargée des projets avancés.

 

Un enjeu de souveraineté

 

Bien sûr, les Etats-Unis ne sont pas le seul pays où militaires et industriels ont pris l’habitude de travailler ensemble sur des technologies de pointe. Mais la particularité américaine est que ces entreprises dominent un secteur devenu crucial pour l’économie du XXIe siècle : le numérique, et notamment les plates-formes d’échange et de stockage de données.

 

L’affaire Snowden, en juin 2013, a servi de révélateur : si les services secrets ont pu accéder massivement aux informations de pays étrangers, c’est parce que ­celles-ci étaient hébergées sur les serveurs d’entreprises américaines et que le département de la Défense, dont dépend la NSA, est passé maître dans l’exploitation de ces technologies.

 

Depuis, de nombreuses voix en France et en Europe soulignent l’urgence de retrouver une souveraineté numérique. Mais, faute d’entreprises de taille mondiale dans les plates-formes du Net (moteurs de recherche, réseaux sociaux, systèmes d’exploitation, cloud...) , les chances de regagner le terrain perdu depuis 1945 semblent aujourd’hui bien minces. 

 

Edited by zx
Link to comment
Share on other sites

Deja qu'on galere pour mettre en place un reseau de satellites de navigation pour etre autonome en europe et se passer des navstars... deja qu'on mette au point un navigateur "independant" (ce genre d'outil ne sera jamais independant, autant se le dire une bonne fois pour toute) au lieu de se fier a gogole, et qu'on arrive a le rendre assez populaire pour le concurrencer, ce serait deja pas mal, mais c'est pas gagne, les habitudes ont la vie dure et gogole&co, de gros moyens (un doux euphemisme).

Link to comment
Share on other sites

Il y a pas mal de points à rectifier dans vos propos ..

 

Un cloud, c'est un centre informatique partagé, il peut être privé ou publique. Cela permet de rendre flexible la puissance en fonction de la charge des applications, au lieu d'avoir une machine par application (je fais simple pour ne pas parler de virtualisation et d'automatisation). Quand un cloud est publique la puissance est partagée entre plusieurs clients et applications.

 

Le big data : c'est un stockage mutualisé gigantesque et on peut mutualiser les données et ou faire des sous ensembles de données spécialisées. Pour accéder et enregistrer ces données, les méthodes de requêtes sont différentes  (non sql) et on peut mettre des données structurées (nom, prénom, date etc) ou non structurée (pdf, scan, video, sons etc). Un big Data c'est donc un pot commun de données de tout type virtualisé ce qui ne veut pas dire dans un lieu de stockage unique.

 

Au dessus il y a l'analytics : L'analytics se sont les moyens souvent mathématiques de rassembler des données et de trouver des relations entre elles qui ne sont pas explicites : Exemple avec les données d'un feu dans la fôret équatoriale et les données de la météo de Sumatra .. j'en déduis qu'un raz de marée est lié à la déforestation ..

L'analytics permet également autre chose sur un big data, c'est d’analyser les données dans leur flux et avant leur stockage. Par exemple analyser en temps réel les millions de twittes qui parlent de PSG-Barça pour connaître le taux de critiques positives et négatives sur chaque joueur et vendre plus de maillot de Messi (c'est un exemple)

 

Enfin, il y a le Cognitif : C'est le fameux ordinateur IBM Watson.  Il apprends tout le temps de tout ce qui se passe sur internet. Il n'arrête jamais d'apprendre. Puis si on lui soumet un problème, il fera des hypothèses et proposera des scénarios chiffrés. Il a un moteur de sémantique, sait interpréter le langage humain et donc vous restitue les résultats de l'analytics et du big data en prédictif . Par exemple prédire le raz de marée, les impacts sur les hôpitaux et les écoles, évaluer financièrement et humainement les dégats futurs et prévenir et mettre sur pied les forces d'intervention nécessaires.

 

 

Un bigdata soit disant "français" n'a aucun sens .. Les données sont sur la planète et dans les flux. C'est une idée de politiciens qui n'y connaissent rien.Il ne faut surtout pas tout rassembler à la poste ou chez Orange .. la bonne aubaine pour eux.

Edited by Pierre_F
  • Upvote 4
Link to comment
Share on other sites

Le "big data" est un mot à la mode mais je me permets d'intervenir car c'est un peu mon domaine (en terme de méthodes car je suis statisticien-économètre)

 

Il existe fondamentalement deux approches dans l'analyse des données:

1/ concevoir un modèle à partir d'un modèle économique ou d'hypothèses et estimer sa validité à l'aide de données collectées.C'est l'approche classique des économètres. C'est historiquement la plus ancienne car les calculs sont largement moins lourds. Elle est par exemple utilisée pour faire un scoring client à partir de 10 variables supposées pertinentes.

2/ ne pas avoir de préconception concernant les liens entre les données et les caractéristiques des individus. Historiquement le principe a d'abord été de tenter de mieux visualiser ces données et de les classer (quelques méthodes claissiques. Regardez les pages wiki sur le sujet si vous voulez ACP, AFC, clustering, classification ascendante hiérarchique, arbres de décision, analyse factorielle, k-means ...). Avec l'avènement des ordinateurs plus puissants on peut tenter visualiser plus de données, sur des fichiers plus gros. L'homme reste dans la boucle pour définir les méthodes et estimer leur pertinence (par exemple pour éviter la sur-identification d'un modèle...). Les méthodes plus avancées (boosting, bagging) permettent de mieux identifier les individus mal classés par d'autres méthodes.

 

On voit apparaître de nouveaux outils somme le SVM (support vector machine), les réseaux bayésiens, les réseaux neuronaux sans parler des trucs exotiques (mathématiquement immondes et que j'ai le plus grand mal à suivre même si je suis loin d'être nul sur ce genre d'outils).

 

Toutes ces méthodes fonctionnent par le biais d'algorithmes qui ont un gros problème: ils sont en général np-complets ce qui veut dire que le temps pour obtenir une solution optimale augmente très rapidement avec le nombre d'individus à étudier. Je simplifie outrageusement mais le principe c'est que dans ce type de problème il est facile de vérifier que la solution est la bonne mais il est difficile de la calculer (exemple très connu: http://fr.wikipedia.org/wiki/Probl%C3%A8me_du_sac_%C3%A0_dos ).

 

La méthode habituelle est donc de sélectionner une sous base de données, de fabriquer un modèle sur celle si et de l'appliquer sur toute la population.

 

Le big data est TRES souvent totalement incompris par la population.

- Dans l'esprit de pas mal de monde c'est utiliser les méthodes classiques sur des ordinateurs plus puissants.

- Pour les praticiens c'est souvent faire le contraire de l'habitude: bâtir des outils qui fonctionnent rapidement sur des bases d'une taille insensée... ce qui est très compliqué. rien que le calcul d'une bête corrélation sur de multiples bases peut demander du temps, et ne parlons pas de tout ce qui fonctione par inversion des matrices. Actuellement on fait surtout du tri croisé , de la fréquence et des outils considérés comme dépassés mais qui marchent à cause de la taille même des bases.

- pour le "vulgum pecus" c'est croiser des bases à la seconde. C'est tout sauf une analyse, c'est au mieux de la requête de très grande taille. Regarder les plaques d'immatriculation etc etc... Dans la pratique c'est totalement délirant. Rien que l'extraction des données dans des formats foireux, incompatibles, non reliés est un cauchemar sans nom.
 

 

 

Enfin, il y a le Cognitif : C'est le fameux ordinateur IBM Watson.  Il apprends tout le temps de tout ce qui se passe sur internet. Il n'arrête jamais d'apprendre. Puis si on lui soumet un problème, il fera des hypothèses et proposera des scénarios chiffrés. Il a un moteur de sémantique, sait interpréter le langage humain et donc vous restitue les résultats de l'analytics et du big data en prédictif . Par exemple prédire le raz de marée, les impacts sur les hôpitaux et les écoles, évaluer financièrement et humainement les dégats futurs et prévenir et mettre sur pied les forces d'intervention nécessaires.

 

 

en fait oui mais non.... on ne s'en rend pas compte mais c'est fait "à l'ancienne": un modèle existe, qui est constamment mis à jour mais son architecture même est décidée par l'homme et les compétences réelles sont encore faibles. Plus exactement la machine sait créer des scenarii et les tester mais est incapable de différencier simplement le possible du farfelu (chose qui est facile pour l'humain). Pour un ordinateur un lien est facile à établir mais le concept de causalité est compliqué à intégrer. Pour simplifier ii se noie dans ses propres hypothèses en étant incapable de supprimer les éléments absurdes mais dont l'exploration est inutile.

  • Upvote 1
Link to comment
Share on other sites

Un bigdata soit disant "français" n'a aucun sens .. Les données sont sur la planète et dans les flux.

 

Pourtant l'objectif était simple proposer des service franco français de stockage massif en ligne de donnée, pour les entreprises - et les pouvoirs publics - qui ne souhaitaient pas être dépendants du droit d'un autre état... C'est assez simple comme principe pour ne pas être idiot.

 

Et non les donnée ne sont pas nulle part, elle sont dans les machines qui sont quelques part, territoire dans lequel une loi s'applique... et dont l’exécutif peut décider un peu ce qui l'arrange, d’où tout un tas de risque juridique, opérationnelle etc. a stocker et a faire transiter des donnée n'importe ou n'importe comment.

Link to comment
Share on other sites

le Big Data est un concept de stockage massif et Big Analytics pour l'analyse de données ,  mais on peut très bien en limité la localisation, la visibilité et ses accès comme pour  le cloud qui n'est que du stockage de données/application mutualisé, 

 

Si on prend hadoop qui est une référence en la matière et l'un de ces outils, et qui reprend le concept google 

il y a deux parties distinctes

 

Le HDFS - La gestion du stockage mutualisé, avec la possibilité d'ajouter un nombre quasi illimité de serveur,

avec une grande facilité. 

 

Le Map Reduce - Un algo pour distribuer la recherche et la collecte de données pour divers besoins,  

 

on peut lui adjoindre des briques logicielles qui peuvent traiter de l'analytique ou autre chose.

une de ces briques est hbase l'équivalent de big table de google, pour gérer des volumes énormes

de données. la datamasse.

 

ensuite tout dépend de l'intelligence des programmes, d'une simple requête il exécutera le map reduce

qui ira collecter les données sur tous les serveurs via un mécanisme de job et de tâches qui lui sont associées.

 

il faut avoir le bon outil et la bonne approche pour obtenir les résultats qu'on souhaite avoir.

Edited by zx
Link to comment
Share on other sites

Pourtant l'objectif était simple proposer des service franco français de stockage massif en ligne de donnée, pour les entreprises - et les pouvoirs publics - qui ne souhaitaient pas être dépendants du droit d'un autre état... C'est assez simple comme principe pour ne pas être idiot.

 

Et non les donnée ne sont pas nulle part, elle sont dans les machines qui sont quelques part, territoire dans lequel une loi s'applique... et dont l’exécutif peut décider un peu ce qui l'arrange, d’où tout un tas de risque juridique, opérationnelle etc. a stocker et a faire transiter des donnée n'importe ou n'importe comment.

 

La valeur ajoutée c'est le croisement des données privées de chaque institution et des données publiques. Ce n'est pas confier à une entreprise privée même avec son siège sociale en France l'ensemble de ses données. D'ailleurs si on regarde ce qui est récemment arrivé à Alcatel ou à Alstom .. la notion d'entrepise Française il faut s'en méfier. L'armée, le ministère des finances, l'education etc doivent faire leur propre bigdata et exposer les données qu'elles jugent utiles au public comme dans le concept d'Opendata.

Mais cette annonce politique est un lobby industriel dans un concept de big data français qui n'a pas de sens et dangereux à terme.

Edited by Pierre_F
Link to comment
Share on other sites

L'armée, le ministère des finances, l'education etc doivent faire leur propre bigdata et exposer les données qu'elles jugent utiles au public comme dans le concept d'Opendata.

C'est un peu le probleme ... visiblement il n'y a pas grand chose de prévu en ce sens a par des hypothétique "PPP" basé sur des offres commercial en France.

 

Mais cette annonce politique est un lobby industriel dans un concept de big data français qui n'a pas de sens et dangereux à terme.

Qu'y a t il de dangereux a proposer des offres de droit français pour cette activité? J'ai beaucoup de mal a comprendre... Que tes données alimentent la DGSE? C'est déjà plus ou moins le cas de toute façon.

Link to comment
Share on other sites

Dans ce forum vous voyez cela sous l'angle militaire et surveillance et heureusement que la DGSE construit doucement son bigdata. Le Ministère des finances contribue déjà à l'OpenData en fournissant des données d'imposition géographique par carré de 60 000 habitants qui permettent aux sociétés commerciales de faire de l'analytics sur la prévision des ventes de leurs boutiques

 

Car le vrai problème du big data , il est économique. On est rentré dans une ère ou la donnée est le nouveau pétrole de croissance. C'est le modèle des GAFA , on vous offre une prestation gratuite en échange de vos données que l'on revend à d'autres.

 

Je critique l'article et ce qu'il contient plus haut   Vouloir faire la même chose en France par l'état, c'est faire une entreprise publique pour lutter contre des multinationales .. Le modèle ne tient pas la route.

Et si la tentation ou le lobby, c'est de donner l'exclusivité de cette idée de centralisation  absurde  à des sociétés privées ,c'est leur donner une privilège et avantage commercial qui va tuer toutes les autres entreprises.

 

Toutes les entreprises qui proposent de stocker les données sur le sol français sont soumises aux lois françaises. L'idée centralisatrice d'un big data Français ... c'est du Superdupont en barre et surement pas ce que le monde économique et les citoyens attendent.

 

Le monde économique souhaite la libre compétition sur l'achat/revente des données et ainsi favoriser la création de beaucoup de startups innovantes en France , les citoyens demandent un cadre législatif permettant d'être protégés sur leurs données personnelles dans le respects de leurs libertés. Toutes les institutions de l'état devront utiliser les avantages de leur propre bigdata. Toutes les sociétés informatiques en France doivent être soumises à la même réglementation.

Edited by Pierre_F
Link to comment
Share on other sites

Le souci et qu'il faut créer un cadre d'action dans des lois et définir les limites et les gardes fou pour en éviter les abus. pour moi

il est la le problème.

 

Je prends un exemple, lutte pour le terrorisme, on collecte des données sur quelqu'un qui est soupçonné de terrorisme, mais on veut

suivre tout son entourage direct et indirect sans rien demander à personne,  le stockage permettra de concentrer les données bancaires, fiscaux,sécu,téléphonique, internet,médicaux,métier,judiciaire,etc..

 

l'analytique fournira des données croisées, mais comme le dit cracou plus haut,  la machine ne sait pas faire la différence sur le sens de l'information, si elle stupide et inopportune, ou conforme au résultat de la recherche.

 

vu la masse, on arrive forcément à stocker des informations et suivre des gens de l'entourage qui ne sont pas au courant des activités de l'un de ses amis, voisins, ou amis d'amis., et qui ne sont pas concernés, qu'est ce qu'ils font dedans, a t'on le droit de les suivre, de les écouter, sans rien demander à personne ?

 

Ensuite est ce que cela sera étendu, comme pour traiter le trafic de stupéfiant et autre aux usa.

 

Qu'en est t'il pour les entreprises, est ce que les entreprises ont le droit de suivre en détail les individus, 

géolocalisation, action d'achat, analyse comportementale dans les centre commerciaux, fichage des données

pour vente à des tiers selon les études marchés, notations individuelles. quand on achète des livres, 

on peut déterminer vos orientations et vos préférences.

 

amazone est un excellent exemple d'aspirateur économique et de données, elle crée des emplois et en fait disparaître beaucoup plus en déployant une facilité d'achat et une logistique hors pair, peu de sociétés française y arrive.

 

On voit comme le politique semble à côté de la plaque avec l'interdiction de la livraison à 0, euros, ok il font les livraisons à 0,01 euros. 

 

En matière de données, il suffit de voir facebook, et comment ils traitent les données de la façon qui leur conviennent, interdire les nues d'artiste et autorisé des pages qu'ils ne devaient pas l'être.

 

Ensuite vient la propriété de l'image, une fois dedans, cela leur "appartient", vous ne pouvez plus effacer. un boss ou un DRH pourra faire une recherche et retrouver les informations vous concernant, y compris celle qui jouera en votre défaveur.

 

C'est pour cela que je ne stocke aucune informations personnelle autre qu'utile sur le web.

Edited by zx
Link to comment
Share on other sites

 Le Ministère des finances contribue déjà à l'OpenData en fournissant des données d'imposition géographique par carré de 60 000 habitants qui permettent aux sociétés commerciales de faire de l'analytics sur la prévision des ventes de leurs boutiques

 

 

Ca fait bien 20 ans! C'est d'ailleurs en accès libre sur le site de l'insee et tu peux acheter des extractions spécifiques.

 

Je vois qu'on confond encore pas mal de choses:

- l'achat et la revente de données c'est classique MAIS sur des données partielles: on revend des infos de base mais pas par exemple le montant des ventes et le RFM d'un client particulier. Un directeur marketing crèverait plutôt que de revendre ça (imagine si le concurrent tombe dessus et que le nom est disponible!).

- le big data en tant qu'entrepôt de données se heurte à cette réalité du marché: les entreprises ne veulent pas donner leurs informations primaires! Il faut des accords très spécifiques pour le faire.

- L'état aurait un intérêt évident à mettre en place un data warehouse centralisé: vendre de la sécurité, de la confiance (et des accès détournés pour exploiter lui même ces données, hein!).

- Vous voyez souvent le big data comme un data warehouse alors que le concept est totalement différent

 

 

 

 

 

 

 

Je critique l'article et ce qu'il contient plus haut   Vouloir faire la même chose en France par l'état, c'est faire une entreprise publique pour lutter contre des multinationales .. Le modèle ne tient pas la route.

Et si la tentation ou le lobby, c'est de donner l'exclusivité de cette idée de centralisation  absurde  à des sociétés privées ,c'est leur donner une privilège et avantage commercial qui va tuer toutes les autres entreprises.

 

Toutes les entreprises qui proposent de stocker les données sur le sol français sont soumises aux lois françaises. L'idée centralisatrice d'un big data Français ... c'est du Superdupont en barre et surement pas ce que le monde économique et les citoyens attendent.

 

Le monde économique souhaite la libre compétition sur l'achat/revente des données et ainsi favoriser la création de beaucoup de startups innovantes en France , les citoyens demandent un cadre législatif permettant d'être protégés sur leurs données personnelles dans le respects de leurs libertés. Toutes les institutions de l'état devront utiliser les avantages de leur propre bigdata. Toutes les sociétés informatiques en France doivent être soumises à la même réglementation.

Link to comment
Share on other sites

réponse à Zx.

 

Oui, je suis d'accord ... au lieu d'essayer de faire un fort à la Vauban ou une ligne Maginot dans l'esprit étatique et centralisateur bien français, il vaut mieux mettre le cadre législatif commercial et sécuritaire qui offre de la souplesse au entreprises de se développer tout en préservant les droits des citoyens et des institutions sur leurs données, bref libérons les énergies de nos mathématiciens, entrepreneurs au lieu de réinventer La poste ou Orange qui ne seront peut plus français dans 10 ans.  (cf Alstom ou Alcatel)

 

Le problème de la loi qui est en débat, c'est qu'elle est hypocrite. Elle légalise une pratique qui était illégale mais réalisée. Par contre elle ne corrige pas les défauts de cette pratique et légalise la surveillance de masse.

 

Il y a des logiciels d'analytics qui savent faire des croisements de données en anonymisant les informations personnelles et sur détection d'anomalies provoquer la demande de commission rogatoire à un juge pour l'identification. Dans notre loi, il n'y a plus besoin de juge ! Cela devient très dangereux suivant le régime politique et la puissance donnée aux renseignements.

 

Réponse à cracou

 

Non je ne confond pas le datawarehouse. mais l'article oui. Ce sont les flux le plus important pas les stockages.

Biensûr que les données INSEE existent depuis lontemps. Mais ce qui est nouveaux c'est la capacité de croiser ces données en temps réel. Le nombre d'équipements connectés, mes mobiles, les réseaux sociaux offrent aujourd'hui des capacités jamais égalées. Surement pas il y a 20 ans.

La différence entre les entreprise se fera sur la qualité de la donnée privée avec la donnée publique. Chaque entreprise et institution doit garder son trésor et exposer ce qu'il estime être partageable ou revendable.

Edited by Pierre_F
Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

 Share

  • Member Statistics

    5,748
    Total Members
    1,550
    Most Online
    Patou860
    Newest Member
    Patou860
    Joined
  • Forum Statistics

    21.4k
    Total Topics
    1.5m
    Total Posts
  • Blog Statistics

    4
    Total Blogs
    3
    Total Entries
×
×
  • Create New...