Évolution majeure de ChatGPT : le tournant des « GPTs personnalisés » qui réinvente déjà le travail
En moins d’un an, le nombre de « GPTs » publiés dépasse les trois millions et chaque semaine, près de 100 millions d’utilisateurs se connectent à ChatGPT. L’adoption suit le rythme effréné d’Instagram à ses débuts, mais dans un contexte B2B où chaque seconde compte. Autrement dit : l’IA générative n’est plus un gadget, elle se mue en infrastructure logicielle.
Angle
ChatGPT est passé d’une interface de dialogue à une plateforme d’applications sur-mesure, ouvrant un nouveau cycle d’industrialisation de l’intelligence artificielle.
Chapô
Depuis novembre 2023, la possibilité de créer des « GPTs personnalisés » propulse ChatGPT au-delà de la simple conversation. Les usages explosent, les modèles économiques se structurent et les régulateurs accélèrent. Plongée deep-dive dans un basculement déjà réel, mais encore loin d’avoir révélé tout son potentiel.
De la conversation au produit : pourquoi ce changement est structurel
ChatGPT, lancé fin 2022, s’est vite imposé dans la culture populaire. Pourtant, le vrai virage se situe un an plus tard, lorsque Sam Altman évoque la vision d’« une App Store de l’IA ». En pratique :
- Les utilisateurs non codeurs peuvent configurer un agent spécialisé en quelques clics (sélection de données d’entraînement, ton, contraintes).
- Les entreprises hébergent des données internes dans un environnement isolé pour nourrir leur propre copilote, réduisant le temps de conception de six mois à quelques jours.
- Les développeurs accèdent à un API uniforme – unifier le texte, l’image et l’audio – simplifiant les intégrations Salesforce, Slack ou Notion.
La conséquence : ChatGPT n’est plus une destination, mais un système d’exploitation cognitif. L’analogie avec l’iPhone n’est pas un slogan marketing ; elle décrit le basculement d’un produit à une plateforme, capable de générer de nouveaux marchés annexes, de la même façon que l’App Economy a dopé le mobile.
Comment les GPTs personnalisés transforment-ils les métiers ?
Automatisation de la création de valeur
Dans le conseil, un cabinet parisien a vu le temps de préparation des présentations clients chuter de 40 %. Leur GPT « StrategyGhostwriter » récupère les données financières du prospect, aligne la structure sur le template maison, propose des slides et des notes orateur (speaker notes). Résultat : davantage d’heures facturables consacrées à l’analyse humaine.
Upskilling express
Le secteur juridique adopte massivement ces assistants. Un grand cabinet anglais recourt à un GPT « UK-Compliance » qui scanne, en langage naturel, les nouvelles directives de la Financial Conduct Authority. Les stagiaires l’utilisent pour simuler des cas, accélérant l’apprentissage. En 2024, 62 % des professionnels du droit déclarent avoir déjà confié une recherche préliminaire à un agent IA interne.
Nouveaux rôles et chaînes de valeur
Apparaît le métier de « GPT curator » : son rôle est d’assembler les sources, ajuster les paramètres systèmes et assurer la mise à jour continue. Ce poste, payé en moyenne 74 000 € par an aux États-Unis, n’existait pas il y a un an. Les DSI, jusque‐là chargés de veiller sur la cybersécurité et l’ERP, doivent désormais intégrer la gestion du prompt et la gouvernance des connaissances.
Business models : de la licence à la place de marché
Abonnements et micro-commissions
OpenAI prélève 20 % sur les ventes de GPTs premium. Certains créateurs indépendants encaissent déjà plus de 15 000 $ mensuels, équivalent aux early days de la créature de Steve Jobs. À grande échelle, les organisations envisagent un modèle freemium interne : l’agent de base reste gratuit pour les collaborateurs, mais les fonctionnalités avancées (traduction juridique ou modélisation financière) se facturent en interne, au coût d’usage.
Effet réseau et verrouillage
Plus il y a de GPTs, plus les utilisateurs restent. Cet effet de réseau renforce la position d’OpenAI face à Google Gemini ou Claude. D’un côté, l’ouverture stimule l’innovation communautaire ; de l’autre, elle accroît la dépendance à un fournisseur unique. Un dilemme déjà observé avec le Cloud public et les marketplaces d’applications SaaS.
Régulation : l’UE en tête, les États-Unis en observation
Le Parlement européen adopte en 2024 le premier AI Act ciblant explicitement les systèmes d’IA générative. Pour un GPT interne, il faudra prouver :
- La traçabilité des données d’entraînement.
- Un mécanisme de refus explicite pour les contenus protégés par le droit d’auteur.
- Un registre public des usages à risque.
Outre-Atlantique, la Maison-Blanche publie un cadre exécutif moins contraignant, misant sur l’autorégulation et la transparence volontaire. Yann LeCun, directeur IA de Meta, critique cet écart, arguant qu’une réglementation trop lourde pourrait freiner la concurrence. Les experts de l’Oréal Tech Room y voient aussi une opportunité : celui qui coche le plus vite les cases de conformité gagne la confiance des clients européens.
Quelles limites techniques et éthiques émergent déjà ?
D’un côté, la promesse est immense. La génération dynamique de texte, d’image et bientôt de vidéo crée un terreau fertile pour la production de contenu augmentée. Mais de l’autre :
- Hallucinations persistantes : même avec GPT-4o, le taux d’erreur factuelle reste supérieur à 3 % sur des requêtes spécialisées.
- Dépendance énergétique : chaque requête coûte en moyenne 0,2 Wh. Multiplié par un milliard de prompts mensuels, l’empreinte carbone rejoint celle d’une petite ville.
- Questions de propriété intellectuelle : la Guild américaine des scénaristes a obtenu l’interdiction d’utiliser des scripts existants pour entraîner de nouveaux agents narratifs.
Les entreprises devront donc arbitrer entre vitesse d’innovation et robustesse juridique. La transformation sera-t-elle freinée ? Probablement pas, mais la maturité du marché dépendra de la capacité des acteurs à instaurer des garde-fous.
Que faut-il retenir pour préparer l’avenir ?
- Industrialisation rapide (automatisation, coûts réduits, nouveaux métiers).
- Plateforme centralisée qui renforce l’effet de réseau.
- Régulation en construction : l’UE impose un cadre, les États-Unis hésitent.
- Compétences hybrides : data literacy, rédaction de prompts, éthique numérique.
- Maillage technologique : intégration avec ERP, CRM, cybersécurité et gestion documentaire (thèmes que nous approfondissons régulièrement).
Je teste chaque semaine de nouveaux GPTs pour mes investigations et mes récits. La sensation est proche de celle du premier smartphone : on invente sans cesse de nouveaux gestes. Plongez-vous dans cet univers, expérimentez, confrontez vos résultats, puis revenez partager vos observations ; la conversation ne fait que commencer.
