ChatGPT : quelles transformations pour les métiers ?

L’outil développé par OpenAI a pris tout le monde de court : dans l’écosystème numérique, depuis quelques semaines, on ne parle que de lui. Ludovic Cinquin, co-fondateur et CEO d’OCTO y voit l’équivalent de l’arrivée de la machine pour le travail manuel, avec des répercussions immédiates sur tous les métiers du texte, y compris les développeurs.

Alliancy. L’outil mérite-t-il les retombées médiatiques dont il bénéficie actuellement et l’émerveillement que formulent la plupart de ceux qui le testent ?

Cinquin-Ludovic

Ludovic Cinquin, co-fondateur et CEO d’OCTO

Ludovic Cinquin. Oui, il le mérite. ChatGPT représente un changement de nature, de degré, par rapport aux nombreux robots conversationnels qui l’ont précédé. Le niveau de puissance utilisable et la simplicité remarquable de l’outil prennent de court toutes les anticipations. On savait que ça allait arriver… mais cela arrive plus vite que prévu et avec une qualité supérieure. Quand AlphaGo a battu un joueur humain, certains disaient que ça arriverait dans dix ans, d’autres que ça n’arriverait jamais. Et puis c’est arrivé.

ChatGPT est l’équivalent de l’arrivée de la machine pour le travail manuel. Cela n’a pas empêché les artisans de travailler, mais ça a complètement refaçonné notre civilisation.

Ce qui surprend aussi avec ChatGPT, c’est la palette des cas d’usages. On peut lui demander d’écrire un poème, une lettre de résiliation de service, un contrat, une recette de cuisine… De faire un résumé de texte (il le fait très bien). Et bien sûr on peut lui demander d’écrire du code ! Il est aussi contextuel : on peut rebondir sur sa réponse et lui demander des modifications ou améliorations.

En réalité, il réalise la promesse des assistants vocaux comme Alexa, qui n’a jamais été vraiment tenue : en caricaturant à peine, on s’en servait juste pour la météo ou pour avoir un timer.

A lire aussi : Créer la symbiose Data/Métiers : un passage obligé

Quels métiers sont concernés par cette innovation ? 

LC. Tous ceux qui ont pour métier d’écrire des textes – y compris du code, je le répète –  sont concernés par ChatGPT. Les journalistes. Les Community Managers. Les professionnels du marketing. Les avocats. Les développeurs. Les consultants. Les traducteurs… Le milieu universitaire est particulièrement challengé, à la fois en production et pour les étudiants. Les métiers du support client seront bouleversés eux aussi.

On peut demander à ChatGPT d’écrire du code pour développer une application de réservation de courts de tennis par exemple. Sur les sujets complexes, on touchera sans doute les limites de l’outil : des équipes chez OCTO sont en train de les tester. Mais dans l’immédiat ChatGPT rend déjà accessible le code standard à des gens qui ont une très faible connaissance du développement.

Je fais le parallèle avec l’invention du moteur : la machine à vapeur a multiplié la productivité du travail manuel. Aujourd’hui, c’est la même chose pour les activités humaines qui consistent à produire des textes. Ma propre activité (faite de conseil et de développement informatique) est concernée à plusieurs titres.

Au début du XIXe siècle, des ouvriers se regroupaient pour casser les machines. Les professions intellectuelles, qui vivent un peu la même chose aujourd’hui, ont-elles cette tentation de « casser le chatbot » ?

LC. Nous sommes d’abord, tous, frappés d’une forme de stupéfaction. C’est cette impression (naturelle) d’avoir été dépassés par la machine, au point de manquer de créativité dans les questions que nous posons à ChatGPT. Mais elle ne dure pas longtemps. Bien sûr, les risques sont réels : cette IA pourrait très bien remplacer un certain nombre de métiers. Mais comme à l’époque de l’introduction de la puissance mécanique, on peut en prendre son parti et en faire une opportunité : ChatGTP va démultiplier notre productivité. C’est la tendance dans le monde du travail depuis les débuts du capitalisme, même si là, pour un certain type d’activités, cela va se produire de façon très, très rapide.

Les avocats par exemple peuvent lui confier un grand nombre de tâches fastidieuses. Et puis, l’outil a des limites, certaines affichées comme telles dès la page d’accueil, d’autres sont à découvrir par nous-mêmes.

La page d’accueil nous annonce que ChatGPT peut occasionnellement générer des informations incorrectes, des instructions préjudiciables ou un contenu biaisé (« harmful instructions or biased content ») et que sa connaissance du monde ne couvre pas les derniers mois (NDLR : en janvier 2023, elle s’arrêtait à décembre 2021,). Quoi d’autre ?

LC. Ces avertissements-là sont liés à la culture américaine de la précaution, notamment face aux risques de complicité d’actes répréhensibles et de discrimination. Avec un outil aussi puissant, il faut bien sûr être vigilant. ChatGPT est entraîné sur ce que nous avons produit : il s’agit bien de notre inconscient mondial, même si OpenAI a mis en place de nombreux dispositifs de contrôle.

ChatGPT est porteur de tous les clichés de notre société – mais quelque part, pas plus qu’un cerveau humain.

La différence, c’est qu’il ne peut pas sortir de la vision du monde qui était la nôtre à une date déterminée (actuellement, fin 2021).

Rappelons aussi que ChatGPT n’a de réponses que sur des sujets déjà disponibles sur le Web. Il ne remplacera pas les interviews ni le journalisme d’investigation. Ce n’est pas demain qu’il se mettra à nous interviewer, à nous retourner des questions : il n’a pas été conçu de cette façon.

Quelles questions se posent en termes d’éthique ?

LC. On imaginait plutôt les Gafam aux commandes de ce type d’outils. Il est probable qu’ils sortent rapidement des produits concurrents. La « course à l’armement » est lancée.

Cela veut dire que vont fleurir sur le Web des IA qui mangent des contenus générés par d’autres IA, jusqu’à avoir une boucle sans fin. C’est vertigineux. Ce n’est pas encore un problème, mais ça va le devenir – et très vite. Les IA risquent de tourner en boucle et nous y serons exposés. Cela me rappelle le débat sur les photos retouchées, nous exposant à des images qui nous sortent du monde. Nous ne sommes pas parvenus à légiférer sur ce sujet. Est-ce que les contenus générés par un humain devraient être labellisés comme tels ? Ce serait une information appréciable, non ?

Autre point : le financement. OpenAI devrait bientôt proposer un business model. Cela pose de nombreuses questions en matière de propriété intellectuelle. A qui appartient la valeur, sachant que cette IA s’appuie, aujourd’hui encore, sur des textes rédigés par des humains ? Assiste-t-on à une forme de privatisation de la pensée humaine ?

Enfin se pose la question écologique. Si ce type d’outils remplace nos moteurs de recherche, ce qui est une probabilité non négligeable, il est tout de même beaucoup plus gourmand. Les conséquences énergétiques et la consommation de ressources peuvent devenir monstrueuses.