Intelligence artificielle et linguistique : GPT-3 remplacera-t-il les journalistes ?

La société OpenAI, fondée par Elon Musk en 2015, a dévoilé cet été son algorithme GPT-3 ou Generative Pretrained Transformer 3, un fleuron en matière d’intelligence artificielle qui dénote de progrès considérables dans le domaine de l’écriture, mais qui rencontre toutefois ses limites. 

Une innovation considérable

GPT-3, troisième du nom, est le fruit d’un travail pharaonique sur la linguistique et l’intelligence artificielle (IA) avec pour but de créer un algorithme capable d’écrire comme un humain. Jusqu’alors, diverses expériences avaient déjà été menées, mais les textes écrits par des IA étaient souvent partiellement insensés et faibles linguistiquement.

GPT-3 est à lheure actuelle lIA la plus développée dans ce domaine. Elle a été créé grâce au deep learning, un système dapprentissage informatique qui tente de recréer les connexions neurales du cerveau humain. Concrètement, GPT-3 a en quelque sorte appris lintégralité de lInternet anglophone, en passant de manière anecdotique par lensemble de Wikipedia et des mots utilisés sur les réseaux sociaux, mais également par des millions de livres. Ces informations accumulées lui permettent de prévoir des enchainements logiques de mots pour former des textes sur des sujets donnés.

Cest, dune part, sa facilité daccès qui fait sortir du lot GPT-3. En effet, lalgorithme se présente simplement sous la forme dune page sur laquelle lutilisateur peut écrire une demande, que lIA complétera instantanément. Par exemple, je pourrais formuler la requête suivante : « Je dois écrire un article sur un sujet x, dune longueur dune page, pour un public non averti, voici ce que jai fait… ». GPT-3 continuera alors mes propos en me proposant un article qui respectera mes directives. Si je précise que je madresse à un public connaisseur, le résultat sera tout autre et utilisera des termes techniques. GPT-3 a ainsi écrit un article pour The Guardian, et il serait difficile de le deviner sans le savoir. 

Concernant cependant l’écriture darticles dactualité, il faudrait dabord informer GPT-3, par exemple via le contenu dune dépêche AFP, qui lui servirait alors de base pour l’écriture dun article. 

Dautre part, sa capacité d’écriture permet à GPT-3 d’être polymorphe, en sadaptant à lutilisation souhaitée : rédacteur de contenu, traducteur, chatbot pour assister des clients, artiste même, et depuis quil sest appris lui-même à coder, développeur web.

Plus précisément, dans le domaine artistique, lartiste Alexander Reben sest par exemple servi de GPT-3 pour imaginer et décrire des œuvres fictives. Cela a donné lieu à des résultats farfelus. Entre autres, à partir de ses connaissances en histoire de lart et des consignes données par Reden, GPT-3 a inventé un collectif dartistes des années 70 dénommé The Plungers (Les Ventouses), appartenant au courant du Plungism, et qui aurait créé une œuvre titrée A Short History of Plungers and Other Things That Go Plunge in the Night (« Une Histoire Courte des Ventouses et Autres Choses Qui Vont Déboucher dans la Nuit »). GPT-3 décrit ensuite cette œuvre comme contenant « une ventouse, une ventouse pour toilettes, une ventouse, une ventouse, une ventouse, une ventouse, chacune dentre elles ayant été modifiées. » Reben a ensuite pu créer de façon matérielle l’œuvre décrite, ce qui pose par ailleurs des questions de droit dauteur. 

Des limites encore récalcitrantes

Cependant, c’est du fait même de son apprentissage générique d’Internet, que GPT-3 reproduit également des énormités mises en ligne par l’homme, sans être capable de discerner le vrai du faux. À un test de Turing par exemple, GPT-3 s’est fait prendre à répondre « deux » à la question  « combien d’yeux ont mes pieds ? » Il pourrait ainsi facilement être utilisé pour générer massivement des fake news.

Par ailleurs, il tient aussi très naturellement des propos racistes, antisémites ou sexistes. Certains développeurs amenés à lutiliser lui ont ainsi demandé d’écrire des tweets à partir dun mot-clé. Pour le mot « juif », GPT-3 propose des résultats tels que : « Les juifs ne lisent pas Mein Kampf, ils l’écrivent. »

Un dernier exemple peut être celui de la société française Nabla, qui a pensé à utiliser GPT-3 comme chatbot dans le domaine médical, bien quOpenAI ait déconseillé cette utilisation. À raison, semble-t-il, GPT-3 ayant pendant la phase dessai conseillé à un patient simulé de se suicider.

Heureusement, OpenAI est bien consciente de ces limites, et cest notamment pour cela quelle na pas voulu rendre libre daccès le code de GPT-3, ce qui aurait permis à nimporte qui de sen servir. Cependant, OpenAI encourage les développeurs à essayer lalgorithme, car, plus il y aura dessais différents de ses possibles utilisations, plus lalgorithme pourra être optimisé.

Bien que Microsoft ait aujourdhui une licence exclusive pour lutilisation commerciale de GPT-3, quiconque souhaitant lessayer peut donc toujours se voir accorder laccès à une version dessai après avoir répondu à une batterie de questions et s’être entretenu avec l’équipe dOpenAI.

Finalement, bien quil constitue une avancée majeure en la matière, les rédacteurs de contenu ont encore de beaux jours devant eux, GPT-3 ne semblant toujours pas comprendre ce quelle écrit. 

Ailleurs sur Lettres numériques :

Retrouvez Lettres Numériques sur Twitter, Facebook et LinkedIn.

— Nausicaa Plas

Share Button