En direct
A suivre

Une IA capable d'écrire des articles et des livres jugée «dangereuse» par ses créateurs

L'IA est capable d'écrire des oeuvres de fiction. L'IA est capable d'écrire des oeuvres de fiction.[YANN SCHREIBER / AFP]

Ils ont le sentiment d'avoir crée un monstre. Des chercheurs de la start-up OpenAI, soutenue notamment par Elon Musk, ont décidé de ne pas rendre publics les résultats de leurs recherches sur une intelligence artificielle, jugeant cette dernière «trop dangereuse». 

Cette IA baptisée GPT2 est notamment capable d'écrire des articles de presse et des oeuvres de fiction. Il s'agit au départ d'un générateur de texte qui assimile les mots qui lui sont données et est capable de déterminer la suite du texte la plus logique et de l'écrire dans le même style. 

Et GPT2 y parvient parfaitement, repoussant les limites de ce que l'on peut attendre d'une IA en termes de qualité d'écriture. Il est impossible de faire la différence avec un texte écrit par un être humain. 

Les chercheurs ont par exemple donné à «lire» à l'IA la première ligne du roman «1984» de George Orwell : C'était une journée ensoleillée et froide du mois d'avril, et les horloges affichaient 13h». Comprenant qu'il s'agissait d'une oeuvre évoquant le futur et écrite sous la forme d'une fiction, l'IA a écrit la suite : «J'étais dans ma voiture sur la route de mon nouveau job à Seattle. J'ai fait le plein, mis la clé dans le contact, et me suis laissé porter. J'ai imaginé à quoi ressemblerait ce jour. Dans cent ans à partir de ce jour. En 2045, j'étais professeur dans une école située dans une région pauvre de la Chine rurale. J'ai commencé avec l'Histoire de la Chine et l'Histoire de la science.»

Tout aussi surprenant, lorsque les chercheurs ont présenté un article du Guardian sur le Brexit à l'IA, celle-ci a été capable d'inventer des citations crédibles du député Jeremy Corbyn, principal opposant à Theresa May, et dévoquer des thématiques précises liée au sujet comme celle de la frontière irlandaise. 

Des usages malveillants

Les performances de l'IA ont ainsi poussé les chercheurs à prendre des précautions. Ils souhaitent ainsi étudier les usages que pourraient en faire des personnes mal intentionnées avant de rendre publiques leurs recherches. 

«Si vous ne pouvez pas anticiper toutes les capacités d'un modèle, vous devez l'étudier pour voir ce qu'il peut faire. Il y a beaucoup de gens qui sont plus capables que nous de déterminer ce qu'il peut faire s'il était utilisé de manère malveillante.», ont déclaré les chercheurs.

Car les possiblités sont nombreuses : générer des avis négatifs ou positifs sur des produits, des spams, voire pire, des «Fake news».

À suivre aussi

Ailleurs sur le web

Dernières actualités