métro[zen]dodo

De l’incroyable hypocrisie d’OpenAI

Irene Solaiman, Jack Clark, Miles Brundage, OpenAI :

As the final model release of GPT-2’s staged release, we’re releasing the largest version (1.5B parameters) of GPT-2 along with code and model weights to facilitate detection of outputs of GPT-2 models. While there have been larger language models released since August, we’ve continued with our original staged release plan in order to provide the community with a test case of a full staged release process. We hope that this test case will be useful to developers of future powerful models, and we’re actively continuing the conversation with the AI community on responsible publication.

Il faut croire que le modèle GPT-2 n’est finalement pas « trop intelligent et dangereux pour être rendu public ». Une équipe du MIT-IBM Watson AI Lab et du groupe de recherche en traitement automatique du langage naturel de l’université de Harvard a mis au point un système de détection des textes produits par GPT-2 et les modèles similaires. Mon argument tient : ces systèmes décupleront la capacité de nuisance des fermes à fausses nouvelles, rédactions de Babel déjà peu préoccupées par la cohérence et la qualité de leurs productions, mais ne changeront pas fondamentalement leur nature.

Vous avez envie de discuter ? Envoyez-moi un courrier électronique. Vous voulez poursuivre la lecture ? Commencez ici. Vous vous sentez l’âme généreuse ? Offrez-moi un livre !