Macron a défendu les règles européennes sur l’intelligence artificielle en Inde
Stockholm, 19 février (Hibya) - Selon The Guardian, s’exprimant lors du Sommet sur l’Impact de l’Intelligence Artificielle à Delhi, le président français Emmanuel Macron a appelé à des mesures plus strictes à la suite de l’indignation mondiale provoquée par l’utilisation du chatbot Grok d’Elon Musk pour produire des dizaines de milliers d’images sexualisées d’enfants, et face aux inquiétudes croissantes concernant la concentration du pouvoir de l’IA entre les mains de quelques entreprises.
Emmanuel Macron a rejeté les critiques américaines à l’égard des efforts européens pour réguler l’intelligence artificielle et a promis que, durant la présidence française du G7, la France protégerait les enfants contre « l’exploitation numérique ».
Ces propos ont été relayés par le secrétaire général de l’ONU, António Guterres, qui a déclaré aux délégués, parmi lesquels figuraient plusieurs milliardaires américains de la technologie, qu’« aucun enfant ne devrait servir de cobaye pour une IA non réglementée ».
Guterres a affirmé : « L’avenir de l’intelligence artificielle ne peut être déterminé par quelques pays ni laissé au bon vouloir de quelques milliardaires. L’IA doit appartenir à tous. »
Bill Gates devait prononcer un discours, mais il s’est retiré à la dernière minute en raison d’un regain d’examen concernant ses liens passés avec le délinquant sexuel Jeffrey Epstein.
Mercredi, Sriram Krishnan, conseiller principal de la Maison Blanche pour l’IA, a réitéré les critiques de l’administration Trump à l’égard des réglementations sur l’IA, visant notamment la loi européenne sur l’intelligence artificielle.
Macron a déclaré aux délégués qu’il continuerait à « s’exprimer » contre les lois « qui ne sont pas favorables à un entrepreneur souhaitant développer une technologie innovante ».
Cependant, lors du sommet intergouvernemental, Macron a déclaré : « Contrairement à ce que disent certains de nos amis mal informés, l’Europe ne se concentre pas aveuglément sur la réglementation. L’Europe est un espace d’innovation et d’investissement, mais aussi un espace sûr, et les espaces sûrs gagnent à long terme. »
Une étude publiée ce mois-ci par l’UNICEF et Interpol dans 11 pays a révélé qu’au moins 1,2 million d’enfants ont vu leurs images transformées en deepfakes à caractère sexuel au cours de l’année écoulée. Dans certains pays, un enfant sur 25 (soit un enfant par classe) a été affecté.
Parmi les dirigeants technologiques présents figurait le PDG d’OpenAI, Sam Altman, confronté à une bataille juridique engagée par la famille d’Adam Raine, un adolescent de 16 ans qui s’est suicidé après avoir discuté de suicide avec ChatGPT.
Dario Amodei, co-PDG d’Anthropic, a déclaré qu’il était « préoccupé par les comportements autonomes des modèles d’IA, leur potentiel de détournement par des individus et des gouvernements, ainsi que par les risques de déplacement économique ».
Le Premier ministre indien Narendra Modi a comparé l’émergence de l’IA à la découverte du feu, la qualifiant de « transformation profonde dans l’histoire de l’humanité », et a déclaré que « l’IA doit être sûre pour les enfants et centrée sur la famille ».
L’Inde vise à se positionner comme la troisième puissance mondiale en matière d’IA après les États-Unis et la Chine ; Google a annoncé cette semaine un investissement de 15 milliards de dollars dans des centres de données et des câbles sous-marins reliant l’Inde aux États-Unis et à d’autres pays.
Modi a déclaré : « Il doit y avoir un niveau de véracité défini pour le contenu dans le monde numérique… les gens doivent savoir ce qui est réel et ce qui est généré par l’IA. »
Ces interventions surviennent dans un contexte d’inquiétudes croissantes du public quant aux risques sociétaux de l’IA, alors que les modèles les plus avancés sont largement contrôlés par quatre entreprises américaines et quelques concurrents chinois.
Modi a présenté une vision alternative en mettant en avant la population indienne de 1,4 milliard d’habitants comme un vaste marché de croissance pour les entreprises technologiques.
Il a déclaré : « Nous devons prévenir un monopole de l’IA. De nombreux pays considèrent l’IA comme un atout stratégique et la développent donc de manière discrète, en contrôlant soigneusement son accessibilité.
Mais l’Inde a une perspective différente. Nous pensons que la technologie, comme l’IA, ne profite réellement au monde que lorsqu’elle est partagée et que son code source est rendu accessible. »
Ses commentaires semblaient viser les États-Unis, où les principaux modèles d’IA ne sont pas open source et ne peuvent être utilisés ou adaptés sans autorisation. En revanche, les principaux systèmes chinois tels que DeepSeek et Qwen sont largement open source.
Hibya Haber AjansıFrance News Agency
