OpenAI bloque la sortie de son intelligence artificielle jugée dangereuse

Par Mathilde B.
— Fév 25, 2019


Vraie menace ou communication autour des enjeux éthiques ?

OpenAI bloque la sortie de son intelligence artificielle jugée dangereuse

Des chercheurs de l’association OpenAI ont conçu un programme d’intelligence artificielle GPT-2 générateur de texte mais son modèle linguistique est tant évolué qu’il pourrait devenir dangereux, ils ont donc décidé de bloquer sa sortie.

 

En effet, si des esprits mal intentionnés s’en emparent, l’algorithme se change en un pourvoyeur de fake news, de complots et d’avis malveillants, sans que personne ne soupçonne qu’il s’agit d’une seule et même IA.

 

Cette société de recherche en intelligence artificielle à but non lucratif soutenue par Elon Musk a mis au point un monstre, d’ingéniosité certes, mais qui n’est pas sans rappeler le Frankenstein de Mary Shelley sous-titré Le Prométhée Moderne. Ces chercheurs n’ont-ils pas voulu voler le feu pour le donner aux humains, abandonnant ensuite leur création, horrifiés par ce qui prit vie ? Justement si. Car GPT-2 ne génère pas simplement des textes mais aussi des reportages, des articles de presse et des fictions ! En s’appuyant sur quelques phrases ou pages, parfois même quelques mots, il est en mesure d’écrire la suite, tout en cohérence avec le sujet et en respectant le style de l’auteur.

 

Le pendant de cette performance c’est que GPT-2 est alors apte à créer des « deepfakes for text », c’est-à-dire de fausses informations précisément crédibles, et de les partager lui-même sur les réseaux sociaux… C’est pourquoi les chercheurs ont décidé de le garder confidentiel, il ne sera donc pas mis à disposition du public ou des entreprises : « Nous ne publierons ni la base de données, ni le code d’apprentissage, ni le modèle sur lequel GTP-2 repose » pouvons-nous lire sur le blog de l’équipe de recherche.

 

De nos jours, le feu prométhéen c’est de la donnée et la quantité traitée pour précisément simuler l’intelligence humaine, si bien qu’elle la dépasse : le système, nourri au machine learning, se base sur 8 millions de pages web, paramétré pour trouver automatiquement du contenu de qualité. Ces pages sont exclusivement celles du forum Reddit ayant reçu au minimum trois votes positifs, soit trois humains qui ont estimé le contenu comme étant pertinent, éducatif ou amusant.

 

David Yuan, à la tête de l’ingénierie d’OpenAI, a déclaré à The Verge, qu’une dissertation composée par GPT2 « aurait pu tout aussi bien être écrite pour les SAT (examens utilisés pour l’admission aux universités américaines) et recevoir une bonne note ». Il s’agit de savoir ce qu’on peut et ne peut pas faire avec, Jack Clark l’explique au Guardian : « Si on ne peut pas anticiper toutes les possibilités d’un modèle, on doit en revanche être capable de voir ce qu’il peut faire. Il y a des personnes bien plus au fait que nous pour imaginer ce qu’elles peuvent faire de malveillant avec. »

 

Or, rappelons-nous Elon Musk qui avait prévenu les politiques américains sur la nécessité de réguler l’intelligence artificielle, un raisonnement suivi par d’autres éminences grises tels que Stephen Hawking ou Bill Gates. En 2015, Musk s’est donc associé à Sam Altman, président du célèbre incubateur Y Combinator, pour fonder Open IA : l’ONG visant à développer et promouvoir une Intelligence Artificielle à visage humain, à l’opposé de ce que craignait le créateur de la Tesla : « Je n’arrête pas de sonner l’alarme… Je travaille sur des formes très avancées d’intelligence artificielle, et je pense qu’on devrait tous s’inquiéter de ses progrès » affirmait-il en juillet 2017.

 

Les chercheurs ne sont donc pas aussi horrifiés que Frankenstein devant sa créature car les sciences actuelles font émerger par finalité et non par accident : « nous essayons de construire la route en la traversant » a d’ailleurs lancé Jack Clark, le directeur des politiques chez OpenIA. C’est donc une façon d’ouvrir le débat sur la régulation d’une telle IA, d’interpeller le grand public sur une éthique possible et nécessaire.

 

L’Institut estime que les gouvernements devraient prendre garde à la progression des capacités de telles machines et mesurer systématiquement leur impact sociétal. Car la technologie ne porte pas seulement en elle un destin poétique auquel il suffit de s’abandonner, il faut en faire une innovation positive au service du bien commun.


Les fondateurs

Chaque semaine,
une newsletter

Suivez nous sur Twitter, Facebook, Linkedin, Instagram et Spotify