L’essor des chatbots dans le secteur technologique est devenu un sujet central depuis le lancement de ChatGPT fin 2022, plaçant l’IA générative au cœur des débats. Bien que l’adoption des modèles de langage par les entreprises soit encore à ses balbutiements, des prévisions pour 2024 annoncent des applications concrètes en production.
Certaines organisations commencent à constater l’impact positif des assistants alimentés par l’IA générative sur les opérations des équipes DevOps. Toutefois, ces dernières doivent naviguer à travers divers défis, notamment en matière de sécurité, de protection des données, d’intégration des processus, et de gestion des coûts liés à l’utilisation de ces modèles de langage. Parallèlement, elles découvrent des opportunités d’amélioration dans leurs processus d’ingénierie, y compris la formation de nouveaux développeurs.
Prenons l’exemple de Nylas, un fournisseur de services de communication qui a lancé en août 2023 un chatbot d’IA générative pour assister ses clients. Grâce à cette innovation, Nylas a observé une réduction de 25 % des demandes de support, malgré une hausse de sa clientèle de 30 %. Isaac Nassimi, vice-président senior des produits chez Nylas, souligne que même si le volume des tickets a diminué, l’équipe consacre toujours autant de temps à traiter les demandes. Le chatbot s’occupe principalement des requêtes simples, permettant aux agents de se concentrer sur des problèmes plus complexes.
L’intégration de ce chatbot a également fourni à l’équipe DevOps des insights précieux pour améliorer leurs produits. Selon Nassimi, les interactions capturées par l’assistant permettent d’identifier les difficultés rencontrées par les utilisateurs, facilitant ainsi des ajustements nécessaires. Par exemple, des requêtes répétées ont mis en lumière la nécessité de clarifier les instructions concernant l’authentification des comptes.
Cependant, l’IA générative, bien qu’innovante, soulève des préoccupations. Andy Thurai, analyste chez Constellation Research, note que les chatbots, bien que populaires, nécessitent une manipulation prudente. Il rappelle que l’IA générative est encore en phase expérimentale et que des erreurs peuvent survenir sans supervision humaine, ce qui pourrait nuire à la réputation des entreprises.
Les inquiétudes liées à la sécurité et à la confidentialité des données demeurent également pressantes. Une enquête d’IDC a révélé que 44 % des professionnels interrogés considèrent les risques de sécurité comme le principal obstacle à l’adoption de l’IA générative, tandis que 38 % se préoccupent des enjeux de confidentialité. La manipulation de données sensibles et les implications juridiques liées aux droits d’auteur représentent des défis majeurs.
Malgré ces préoccupations, certaines grandes entreprises commencent à adopter les LLMOps (opérations de modèles de langage) pour intégrer ces technologies dans leur développement. LinkedIn, par exemple, a réorganisé ses pratiques d’ingénierie pour intégrer des fonctionnalités d’IA générative. Les utilisateurs premium bénéficient de nouvelles options de rédaction, tandis que des outils internes facilitent l’accès aux modèles OpenAI. De plus, des bibliothèques ont été créées pour standardiser les requêtes API, et certaines innovations ont été mises à disposition en open source.
Credit Karma, également, mise sur l’IA générative avec l’aide d’Intuit. Ils développent des outils pour améliorer l’expérience des développeurs, notamment un système permettant de suivre l’utilisation de leur plateforme Gen Studio. La société prévoit également de déployer un chatbot capable de répondre aux questions des développeurs sur la documentation.
La gestion des coûts liés à l’IA générative reste un défi. Animesh Singh, directeur général de l’IA et du ML chez LinkedIn, met en avant le coût élevé d’exploitation des LLM, incitant son équipe à affiner l’utilisation des modèles open source et à développer des méthodologies pour mieux contrôler les dépenses.
En dépit des obstacles rencontrés, l’intégration de l’IA générative présente des opportunités prometteuses pour les équipes DevOps. Toutefois, les entreprises doivent aborder cette technologie avec prudence, en évaluant soigneusement les cas d’utilisation pour maximiser les avantages tout en minimisant les risques associés.