Près d’une décennie après sa sortie, Pokémon Go influence l’intelligence artificielle d’une manière inattendue.
Selon un rapport de la MIT Technology Review(nouvelle fenêtre), Niantic Spatial, une entreprise d’IA issue du développeur original du jeu, utilise plus de 30 milliards d’images(nouvelle fenêtre) de monuments urbains capturées par des joueurs de Pokémon Go pour entraîner des systèmes d’IA qui aident les robots à comprendre où ils se trouvent dans le monde réel.
Lorsque Pokémon Go a été lancé en 2016, des millions de joueurs ont parcouru leurs villes en pointant leurs téléphones vers des bâtiments, des parcs et des monuments tout en recherchant des créatures numériques. Ce faisant, ils ont créé l’un des plus grands ensembles de données d’images du monde réel jamais collecté. Niantic Spatial a entraîné son modèle sur 30 milliards d’images capturées dans des environnements urbains, dont beaucoup étaient regroupées autour d’emplacements que les joueurs visitaient fréquemment dans le jeu. Parfois, des créatures numériques apparaissaient dans ou à proximité d’espaces privés tels que des immeubles d’habitation ou des cours résidentielles, ce qui signifie que ces moments peuvent avoir fait partie des ensembles de données de l’IA.
Ces données sont maintenant utilisées pour construire ce que les chercheurs appellent un « modèle du monde » — un système d’IA conçu pour aider les machines à interpréter et à naviguer dans des environnements physiques.
Cela met également en évidence quelque chose de facile à négliger concernant la technologie moderne : l’activité quotidienne sur les applications peut discrètement devenir de précieuses données d’entraînement pour les systèmes d’IA des années plus tard — chose que les joueurs de Pokémon Go n’auraient pas pu prévoir en 2016, et encore moins y consentir de manière significative.
Pourquoi le GPS a du mal dans les villes
Les signaux GPS rebondissent souvent sur les grands bâtiments, dérivent considérablement ou disparaissent complètement dans les environnements urbains denses, un problème parfois appelé l’effet « canyon urbain ». Comme l’explique la MIT Technology Review dans son rapport sur la technologie, même les indicateurs d’emplacement des smartphones peuvent dériver de plusieurs dizaines de mètres dans les villes, plaçant souvent un appareil dans le mauvais pâté de maisons ou du mauvais côté de la rue.
La solution de Niantic Spatial repose sur un système de positionnement visuel(nouvelle fenêtre), qui détermine l’emplacement en analysant ce qu’une caméra voit. En comparant des instantanés de bâtiments et de monuments à proximité avec son énorme ensemble de données, le système peut prétendument localiser un emplacement avec une précision de quelques centimètres.
De la réalité augmentée aux robots de livraison
L’un des premiers tests dans le monde réel de la technologie de Niantic Spatial se déroule dans le cadre d’un partenariat avec Coco Robotics, une startup exploitant des robots de livraison sur les trottoirs dans plusieurs villes.
Les robots de l’entreprise transportent des provisions et des commandes de restaurants dans des endroits comme Los Angeles, Chicago, Miami et Helsinki. Selon le rapport de la MIT Technology Review, les robots de Coco ont déjà effectué plus d’un demi-million de livraisons, couvrant des millions de kilomètres.
Naviguer de manière fiable dans des villes denses reste un défi majeur pour les machines autonomes. En combinant les caméras sur les robots avec le système de positionnement visuel de Niantic Spatial, les machines peuvent mieux déterminer exactement où elles se trouvent, leur permettant de s’arrêter précisément aux emplacements de ramassage ou devant la porte d’un client.
L’essor des « modèles du monde »
Le projet reflète une tendance plus large dans le développement de l’IA.
Les grands modèles linguistiques sont entraînés sur des images et des textes provenant d’internet. Les modèles mondiaux, en revanche, visent à aider les machines à comprendre comment le monde physique lui-même est structuré — où se trouvent les objets, comment les espaces se connectent et comment s’y déplacer en toute sécurité.
Niantic Spatial déclare que son objectif à long terme est de construire une « carte vivante » du monde constamment mise à jour, que les robots et autres systèmes d’IA peuvent utiliser pour naviguer.
Ce que cela signifie pour le respect de la vie privée
Cette histoire illustre également un changement plus large dans la manière dont les données créées par des personnes ordinaires utilisant des applications courantes sont réutilisées.
Des millions de personnes ont téléchargé Pokémon Go pour jouer à un jeu. Mais en cours de route, elles ont également généré des milliards d’images et de signaux d’emplacement précis liés à des lieux du monde réel. Ces données aident désormais à entraîner des systèmes d’IA conçus pour cartographier et naviguer dans le monde physique. On est bien loin de l’intention du joueur qui lance le jeu pour rechercher Pikachu.
Cela devient un schéma familier dans l’économie de l’IA. Des activités qui semblent sans rapport avec l’intelligence artificielle — prendre des photos, naviguer sur le web, utiliser des applications — finissent souvent par produire les ensembles de données utilisés pour entraîner de nouveaux systèmes puissants. Les modèles d’IA modernes sont fréquemment construits à l’aide de vastes collections de données extraites d’internet et d’autres sources numériques, qui, selon les chercheurs, peuvent parfois inclure des informations personnelles ou des données sensibles.
Alors que les entreprises font la course pour construire des modèles mondiaux et d’autres formes d’IA, la question devient de savoir d’où proviennent les données d’entraînement — et si les personnes qui les ont générées ont un jour réalisé comment ces données seraient utilisées, ou auraient quand même accepté d’utiliser ces applications si elles en avaient connu les conséquences. Les décideurs politiques et les chercheurs réclament de plus en plus des normes de consentement plus claires(nouvelle fenêtre) pour les données utilisées dans l’entraînement de l’IA, faisant valoir que les créateurs et les utilisateurs devraient avoir plus de contrôle sur la manière dont leurs données sont réutilisées.
Ces préoccupations concernant le respect de la vie privée lié à l’IA se jouent déjà devant les tribunaux. Des éditeurs, des auteurs et des entreprises de médias ont intenté des poursuites affirmant que leur travail a été utilisé pour entraîner des systèmes d’IA sans autorisation, y compris une affaire très médiatisée dans laquelle The New York Times a poursuivi OpenAI et Microsoft(nouvelle fenêtre) pour l’utilisation présumée de son journalisme dans des ensembles de données d’entraînement d’IA.
Pour les entreprises qui construisent une IA naviguant dans le monde physique, les ensembles de données créés par le biais de jeux, d’applications et de plateformes numériques deviennent rapidement certains des actifs les plus précieux de l’industrie technologique. À mesure que cela se produit, les questions sur la transparence, le consentement et la manière dont les données générées par les utilisateurs sont réutilisées deviennent plus difficiles à ignorer.
Tout le monde ne poursuit pas ce modèle avide de données. Chez Proton, nous croyons en une IA privée et transparente qui vous offre les avantages d’un assistant IA(nouvelle fenêtre) sans les coûts liés au respect de la vie privée. Lumo n’enregistre jamais vos données, ne s’entraîne pas sur vos conversations sensibles et ne partage vos informations avec personne. Cela signifie utiliser l’IA sans se demander si les interactions d’aujourd’hui pourraient discrètement devenir les ensembles de données de demain.


