Facebook a laissé des grandes entreprises lire les messages privés

 

FILE PHOTO: Silhouettes of mobile users are seen next to a screen projection of Facebook logo in this picture illustration taken March 28, 2018. REUTERS/Dado Ruvic/Illustration/File Photo

Selon des documents consultés par le New York Times, Facebook a octroyé à des géants de l’Internet, comme Amazon, Spotify ou Microsoft, un accès plus intrusif aux données personnelles que ce que n’avait admis le populaire réseau social.

Des accords spéciaux entre Facebook, fort de 2,2 milliards d’utilisateurs, et ces partenaires privilégiés exemptaient ces derniers des règles générales du respect de la vie privée. Ces révélations basées sur des documents internes et entretiens avec d’anciens employés mettent à nu les pratiques du gigantesque réseau social en matière de partage d’information.

Liste d’amis et messages privés
À titre d’exemple, le moteur de recherche de Microsoft, Bing, était autorisé à voir le nom de pratiquement tous les amis des utilisateurs de Facebook sans leur assentiment. Les plateformes de streaming Netflix ou Spotify pouvaient jouir de l’autorisation de lire les messages privés échangés entre membres du réseau social. Il était permis à Amazon, leader du commerce en ligne, d’obtenir les noms des usagers de Facebook et leurs contacts via leurs amis. Jusqu’à l’été passé, Yahoo pouvait même lire les flux de messages postés par les amis Facebook, en dépit de déclaration publique que la pratique avait pris fin.

Ces accords privilégiés ont été passés entre Facebook et pas moins de 150 partenaires, dont 60 constructeurs de téléphones portables, et certains étaient encore en vigueur en 2017.

Lire l’article sur 7sur7

 

Tell people !

AI – la police veut qu’elle arrête le crime avant d’avoir lieu

 

La police au Royaume-Uni veut prévoir les crimes en utilisant l’intelligence artificielle.

Le système, appelé la Solution d’Analytique de Données nationale (NDAS), utilise une combinaison d’AI et la statistique pour essayer d’évaluer le risque du passage à l’acte de quelqu’un.

La Police de West Midlands mène le projet jusqu’à la fin mars 2019 pour produire un prototype.

Lire l’article en anglais sur NewScientist.

 

Tell people !

IA peut identifier quelqu’un de dos par sa démarche

Déjà utilisée par la police dans les rues de Pékin et de Shanghai, la  » reconnaissance de la démarche  » s’inscrit dans le cadre d’une campagne de développement de l’intelligence artificielle et de la surveillance basée sur les données en Chine qui suscite des inquiétudes quant à l’étendue de cette technologie.

Le logiciel, construit par une société chinoise d’intelligence artificielle appelée Watrix, extrait la silhouette d’une personne de la vidéo et analyse le mouvement de la silhouette pour créer un modèle de la façon dont la personne marche.

 

Tell people !

Des objets intelligents, connectés ET indiscrets


QUOI

Il y a un dicton qui dit : « Celui qui a gagné une pièce d’or a gagné une pièce d’or, mais a perdu une main. » (sous-entendu : celle qui se referme sur la dite pièce et qui n’est donc plus utilisable). On pourrait encore traduire cette question par: « Les objets que vous avez acheté, est-ce que vous les possédez, ou bien est-ce que ce sont eux qui vous possèdent ? » Outre le fait que l’on pourrait se demander combien de mains l’on a déjà perdu, cette interrogation profondément philosophique prend de nos jours un tour étrangement concret…

POURQUOI

Certes, l’on sait bien que nos précieuses données personnelles, celles que nous consentons à divulguer à de grandes entreprises qui en font le commerce, sont ensuite utilisées pour catégoriser le genre humain, l’étudier, l’analyser, et finalement prévoir, anticiper et influencer la prise de décision de n’importe quel type d’individu. Cette transparence nouvelle de l’homme a notamment été mise en lumière par Olivier Ertzscheid dans son article « L’homme est un document comme les autres : du world wide web au world wide life. »1

COMMENT

Ce que l’on doit comprendre également, c’est que ce dommage collatéral est indissociable du progrès technique. Ce pour plusieurs raisons. La première, c’est tout simplement qu’un outil utile, c’est un outil qui répond à un besoin, et qu’un outil que vous allez utiliser, c’est un outil qui ne va pas vous demander d’effort particulier pour l’utiliser. Autrement dit, un outil dit « intelligent », c’est un outil qui a pour vocation de vous connaître mieux que vous-mêmes. De connaître vos besoins et de comprendre comment vous les exprimez. Vous me suivez ? Tout simplement, si l’on cherche à répondre à vos besoins de manière précise et ce avant que vous ne perdiez du temps et de l’énergie à les formuler dans un langage (quel que soit sa nature : oral, écrit, gestuel…) précis, il faut vous connaître précisément. C’est une condition nécessaire. Et il y a donc nécessité d’amasser une quantité impressionnante d’informations sur vous.

Un autre point, c’est que l’intelligence est quelque chose de collectif de manière générale. On s’en aperçoit dans tous les domaines : Isaac Newton a dit “If I have seen further, it is by standing on the shoulders of giants.”2 (“Si j’ai vu plus loin, c’est parce que j’étais juché sur des épaules de géants”), en parlant de ses prédécesseurs et en citant ainsi Bernard de Chartres. Eric Raymond, co-créateur du terme « Open Source », s’appuie aussi sur cette idée pour exprimer la supériorité du système de l’Open Source sur celui du code propriétaire dans son essai « The Cathedral & the Bazaar »3. Enfin, on sait également désormais qu’une masse de joueurs d’échecs de qualité variée arrive à rivaliser dans une partie avec de très forts joueurs.4 En conclusion, si les machines peuvent dépasser l’homme, c’est parce que celui-ci n’a qu’un échange limité avec ses autres congénères, quand la machine, elle, peut bénéficier de l’expérience de tous, presque sans aucune limite. Donc plus la machine (donc l’outil) doit être performant, donc intelligent, plus il doit avoir accès à une large source de données (« d’expériences »), pour « apprendre son métier ».

Se pose ensuite la question du cercle infernal : un outil vous aide, mais pour s’améliorer, doit vous soutirer des informations. Alors : qui possède qui ? Peut-on parler de symbiose ?

CE QU’ON PEUT EN FAIRE

Le problème, c’est que même si symbiose il y a, cette connaissance de l’homme est problématique. Tant que les technologies sont là pour aider l’homme, le monde s’améliore. Mais si elles étaient utilisées pour le détruire ?

C’est notamment cette confiance entre l’utilisateur et le fournisseur des outils qui pose problème en 2015 quand Sony sort sa télévision à commande vocale… Les utilisateurs ont peur d’avoir acheté un mouchard directement installé dans leur salon, qui écoute leurs conversations de table ! Pire : Samsung se réserve le droit de revendre les informations collectées à des tiers !5

Mais de nos jours, avec la prolifération des objets connectés, le problème ne s’arrête plus à la simple confiance dans les fournisseurs, mais aussi dans la sécurité directe du dispositif : et si le mouchard se faisait hacker ? C’est d’ailleurs pour cette raison que la poupée jouet Cayla a été retirée du marché en Allemagne : celle-ci captait les voix des enfants pour les transmettre sur les serveurs du fabricant… celles-ci auraient donc pu être interceptées à des fins malveillantes.6

Après tout ça, qu’en pensez-vous : Possédez-vous vos objets ou pensez-vous qu’ils vous possèdent ? Ou bien que d’autres vous possèdent au travers de vos propres objets ?

ALLER PLUS LOIN

NOTES

1■ Olivier Ertzscheid, « L’homme est un document comme les autres : du world wide web au world wide life », Hermès, La Revue- Cognition, communication, politique, CNRS-Editions, 2009, pp.33-40

2■ Wikipedia

3■ Eric S. Raymond, “The Cathedral & the Bazaar”, 2010

4■ Par exemple : The world vs Arkadij Naiditsch

5■ Libération

6■ Magazine 01net, 08/03/17

Retour en haut de l’article

Tell people !

Google connaît mieux ta langue que toi !

 

 

Google a annoncé cet été à la conférence Google Cloud Next ’18 une mise à jour intéressante sur Google Docs : désormais vous disposerez d’un correcteur, non seulement orthographique, mais aussi grammatical !1

Le fonctionnement est simple : quand une possible faute de grammaire est détectée, la portion de phrase est surlignée en bleue. Par clic droit, on peut alors accepter l’une des propositions qui s’affichent, ou les refuser toutes. On peut aussi, après avoir rédigé un texte, corriger toutes les fautes via le menu « Outils ».2

Il faut bien comprendre que, si le résultat est à la hauteur des attentes, il s’agira d’une avancée importante dans le cadre du traitement automatique des langues. En effet, construire un correcteur orthographique n’est en soi pas très compliqué : il suffit de disposer d’un dictionnaire pour ça. Si le programme sait dans quelle langue vous écrivez (les ordinateurs arrivent à détecter la langue dominante d’un document à partir des premiers mots écrits), il charge le dictionnaire correspondant et compare tous les mots à ce dictionnaire pour savoir si ce que vous écrivez est correct ou non. Bon, OK, en pratique, c’est un peu plus complexe : il faut s’intéresser aux règles formelles d’accord, mais comme ces règles sont formelles, les ordis s’y retrouvent plutôt bien de nos jours, comme on peut le constater en utilisant n’importe quelle suite bureautique.

Mais là, ça va plus loin : la détection des fautes de structures de phrases nécessite une bonne compréhension de la langue de la part de la machine. C’est d’ailleurs pour ça que Grammar Suggestions utilisera le machine learning pour progresser, et qu’il est actuellement en phase d’apprentissage. Vous pouvez d’ailleurs vous porter volontaire pour entraîner le programme en faisant une demande à Google et en utilisant une version bêta sur Google Docs.3

Eh oui, quand Grammar Suggestions aura un peu grandi, il écrira mieux que nous. Ce qui laisse tout de même songeur…

Look further / Useful link(s)

Notes

1■ Journal du geek, « Google Docs se dote d’un correcteur grammatical basé sur l’intelligence artificielle« , 25/07/18.

2■ Article du blog G Suite Updates de Google, « New grammar suggestions in Google Docs launching to Early Adopter Program », 24/07/18.

3■ Participer aux tests

 

 

 

 

 

 

Tell people !

Les trucages vidéos de plus en plus effrayants

Ca fait maintenant un moment déjà que l’on arrive à reproduire la voix de quelqu’un avec un logiciel de synthèse vocale1, histoire de lui faire dire des choses qu’il n’a pas dites… On arrive maintenant aussi à le mettre en image (vidéo en temps réel), et ce de manière très réaliste pour l’œil humain. Dans le milieu du Deep Video Portraits, Michael Zollhöfer est au milieu des innovations actuelles, notamment comme membre du projet HeadOn.

On a trouvé un certain nombre de vidéos sur ce sujet, plutôt inquiétant. On les partage donc avec vous :

Les « deepfakes », savant mélange de « deep learning » et de « fake news » :

Deepfake Videos Are Getting too Good :

‘HeadOn’, An AI That Transfers Torso, Head Motion, Face Expression And Eye Gaze :

Générer une vidéo de quelqu’un qui fait la même danse qu’un autre :

Bonus / Manipulation anti-vieillissement (high level !) par Rousselos Aravantinos :

Notes

1■ Article du journal « Le Monde » du 02/04/2017 « L’appli qui imite les voix »

 

Tell people !

DATAK, un jeu vidéo évolué sur la vie privée

Datak est un jeu vidéo gratuit en français, développé par la Radio Télévision Suisse, pour vous montrer différents enjeux sur la vie privée.

Ce jeu pour navigateur vous plonge dans la peau d’un stagiaire recruté dans une mairie. Datak a été actualisé pour tenir compte de l’actu, de la loi RGPD au scandale de Cambridge Analytica.

Vous avez donc 15 nouveaux défis autour des vols massifs de données mais aussi du Big Data, ainsi qu’un évitement de caméras de surveillance…
Vous pouvez télécharger le trailer ICI, et jouer à partir de là.

 

Tell people !

Le Big Brother français arrive

La reconnaissance faciale « intelligente » est annoncée comme une nécessité pour le ministère de l’Intérieur. Le modèle chinois de contrôle et surveillance de la population par des caméras et des algorithmes d’identification des personnes semble inspirer le gouvernement et l’administration française qui lance des expérimentations et des partenariats.

Le système peut identifier en temps réel avec exactitude le type de voiture, l’habillement, le sexe et même l’âge d’un passant… Ces informations sur les passants s’affichent automatiquement à l’écran. Quand il s’agit d’un criminel recherché, l’alarme du système se déclenche en montrant les données le concernant sur l’écran.

La France est l’un des pays champion des technologies numériques de surveillance.  Pionnier dans le domaine du « Deep packet inspection » (DPI, inspection profonde de paquets) grâce à sa recherche universitaire et des montages d’entreprises spécialisées dans l’exportation de ces systèmes à des dictatures, le pays de Victor Hugo a légiféré en cascade depuis plusieurs années pour autoriser les services de police et de renseignement à surveiller et capter les échanges numériques des citoyens de façon administrative, sans contrôle d’un juge d’instruction.

Le CNRS confirme

L’annonce récente par le CNRS de la signature d’une convention avec la Direction du renseignement militaire (DRM) confirme l’intérêt des services de l’Etat pour le développement d’intelligences artificielles de reconnaissance d’image.

« L’intelligence artificielle doit permettre, par exemple, de repérer dans la foule des individus au comportement bizarre.  »
Gérard Collomb dans son bilan « d’un an de maintien de l’ordre », le 8 juin 2018

Article complet sur tv5monde.

 

Tell people !

Ouverture d’une chaire de sciences des données au Collège de France

 

 

En janvier 2018, une chaire de Sciences des données a été ouverte au Collège de France par Stéphane Mallat, chercheur français qui avait mis au point en 1987 un algorithme à l’origine du futur format JPEG2000 avant de fonder une start-up produisant des puces électroniques pour TV qui permettaient d’améliorer la résolution de l’image (production d’un image haute résolution à partir d’un signal standard), puis de faire des recherches sur les algorithmes d’apprentissage profond pour des problèmes liés à la reconnaissance automatique d’images.

Dans une interview pour le journal La recherche1, il explique les raisons de la création de sa chaire au Collège de France et donne des indications sur le contenu des cours qu’il y donne.

Pour lui, il était important que le nom de sa chaire soit « Sciences des données » au pluriel, car il s’agit d’un champ de recherche multidisciplinaire. En effet, bien que les outils utilisés soient toujours les mêmes (mathématiques appliquées, informatique et IA, théorie de l’information etc.), les jeux de données traités concernent toutes sortes de sciences (physique, biologie, sciences cognitives, économie, sciences sociales, etc.). Or chacune de ces sciences ont leur propre manière d’aborder le problème des big data, ce qui fait des sciences des données un domaine massivement pluridisciplinaire. D’ailleurs, Stéphane Mallat soutient que l’émergence de cette discipline n’est pas due à une nécessité scientifique, mais plutôt à une pression sociale et universitaire, puisque ces méthodes sont tout simplement en train de révolutionner nos sociétés en profondeur (un peu comme les chaires d’informatique se sont imposées petit à petit dans les universités, cinquante ans plus tôt). En fait, cette pression est telle que Stéphane Mallat travaille actuellement à l’ouverture d’une autre chaire de sciences des données à l’Ecole Normale Supérieure. Du coup, comme le domaine commence tout juste à cristalliser, le principal objectif de sa chaire au Collège de France sera de créer un vocabulaire commun, utilisable par les tenants de toutes les disciplines scientifiques concernées, pour traiter des problèmes liés aux données de grande dimension. Autrement dit, de poser les bases de cette nouvelle science par la création d’un vocabulaire qui lui est propre.

Historiquement, si on veut comprendre d’où vient ce domaine émergent, c’est par les biais de l’accumulation des données (big data) et de l’augmentation de la puissance de calcul que les maths appliqués et l’informatique se sont rencontrés pour donner naissance au machine learning. Parce qu’historiquement, on a d’abord été capable de stocker un grand nombre de données, avant de savoir ce qu’on pourrait en faire. Globalement, les sciences des données sont utilisées pour atteindre deux types d’objectifs : la modélisation d’un jeu de données (pour générer des données nouvelles, compresser des données, reconstruire ou améliorer la qualité d’une image etc.) et la prédiction (qui consiste à donner du sens à un amas de données). Actuellement, les techniques à base de réseaux de neurones profonds fonctionnent bien pour ces utilisations, mais on comprend mal pourquoi. Il y a donc un domaine entier de recherche à ce niveau, qui devrait permettre de les rendre plus fiables pour les applications critiques comme la médecine (diagnostic médical) ou la conduite autonome. Les autres axes de recherche concernent la réduction du nombre de dimensions des problèmes en découvrant et utilisant des hiérarchies multi-échelles (observation des données à différentes échelles) et des symétries (invariances) dans les jeux de données traités.

 

 

Et du fait qu’on a d’une part des entrepôts de données et d’autre part tout un arsenal de maths appliquées à utiliser, l’une des particularités de ce domaine est qu’il est à la fois théorique et expérimental. Ce sont en effet, d’après Stéphane Mallat, des approches empiriques et des intuitions remarquables de plusieurs chercheurs et ingénieurs que sont nés les récents et foudroyants progrès que l’on connaît dans les techniques de reconnaissance visuelle et vocale, de traduction automatique ou encore dans les jeux de go ou des échecs. Et c’est pour lui la recherche expérimentale dans ce domaine qui fait émerger de nouveaux problèmes mathématiques ; et c’est donc pourquoi cette correspondance maths et application est au cœur de son cours.

Notes

1■ La recherche, février 2018

 

Tell people !