EDITO

L’Intelligence Artificielle :
Un vrai levier de performance

GPT 3.5, GPT-4, Dall-E 2, MidJourney, Stable Diffusion… Depuis l’été 2022, les modèles d’intelligence artificielle (IA) génératifs font l’objet de nombreux commentaires. Entre les générations de texte abondamment utilisés par les étudiants pour leurs examens et les créations d’images difficilement discernables de la réalité, leurs usages fascinent, inquiètent ou les deux.

Le précurseur de ce nouvel élan est ChatGPT initié par OpenAi. ChatGPT est certainement le développement qui a fait le plus sensation auprès du grand public, avec près de 100 millions d’utilisateurs recensés en deux mois. Le logiciel est un modèle de langage basé sur la transformation de GPT (Generative Pretrained Transformer), un des modèles de langage les plus populaires et performant dans l’univers de l’Intelligence Artificielle.

ChatGPT utilise une technologie basée sur l’exploitation d’algorithmes de traitement du langage naturel pour comprendre les questions et générer des réponses en temps réel. Avec l’API de OpenAI, il est possible de créer des chatbots offrant une assistance clientèle personnalisée ou même des avatars conversationnels pour des jeux et des expériences interactives.

ChatGPT, entraîné sur des milliards de phrases (dans beaucoup de langues) est capable, dès son lancement en 2022, de générer du texte de manière autonome. Il est conçu pour imiter la conversation humaine, afin de produire des réponses cohérentes et pertinentes aux questions posées.

La richesse de ChatGPT réside dans sa capacité à répondre à toutes les demandes possibles et imaginables et se positionne, avec sa dernière version GPT-4 lancée en Février 2023, comme un concurrent sérieux de Google et autres moteurs de recherche connus aujourd’hui.

A la suite de Microsoft, les grandes entreprises de la tech ont commencé à déployer des outils d’intelligence artificielle dite « générative » comme ChatGPT sur leurs plateformes et applications, pour ne pas prendre de retard sur l’avancée technologique la plus notable depuis le lancement de l’iPhone.

C’est ainsi que Microsoft (qui avait déjà investi un milliard de dollars dans OpenAI) a créé la surprise en Février 2023 en intégrant ChatGPT à son moteur de recherche Bing, sous la forme d’un chatbot capable de répondre aux questions des utilisateurs mais aussi de générer différents textes sur commande.

Les technologies du nouveau Bing, en phase de test, doivent être intégrées à Windows 11 (la dernière version de son système d’exploitation sur les PC), à sa suite bureautique (dans des logiciels comme Word ou Teams) et sur son navigateur Edge.

 

Sentant une menace de premier plan, Google a vite réagit en présentant Bard, son propre chatbot d’IA générative. Bard est basé sur une version réduite de son propre modèle de langage, « LaMDA », pour faciliter les tests et s’assurer que les réponses de Bard soient d’un « niveau élevé de qualité ».

Pris de court, Meta (maison mère de Facebook) ne semble pas être en mesure de proposer un développement sur le sujet à court terme se contentant simplement de présenter un modèle de langage baptisé LLaMA, qui sera mis à disposition des chercheurs pour être perfectionné.

La bataille est lancée parmi les GAFA. Mais que font les Chinois comme Baidu et Alibaba ?

Baidu, géant de l’internet chinois, devrait être en mesure de proposer au grand public, d’ici l’été 2023 sa propre application baptisée « Ernie Bot » qui permettra de servir à différents usages, de la recherche en ligne à la conduite autonome.

Dans la foulée, Alibaba, (la plateforme de vente en ligne chinoise et concurrente d’Amazon) a annoncé le 11 Avril 2023 le lancement officiel de « Tongyi Qianwen », pour concurrencer ChatGPT. Le modèle d’intelligence artificielle générative d’Alibaba sera intégré à une série de produits de la société chinoise, à commencer par son application de communication et de collaboration DingTalk, (outil comparable à Slack), et par ses enceintes intelligentes Tmall Genie.

L’IA générative : une menace pour l’emploi.

On lit un peu partout que l’IA générative allait augmenter la productivité à un niveau tellement élevé qu’à terme 300 millions d’emplois seront supprimés dont ceux qui sont à la base de l’IA, c’est-à-dire les développeurs. 

Ceci est une entière aberration car si des emplois vont être supprimés comme toute évolution classique de nos modèles, d’autres seront créés en traînant ainsi une grosse bouffée d’oxygène sur le marché de l’emploi.

Non le danger n’est pas sur l’emploi mais bien sur le traitement et la confidentialité de la donnée. Pour faire le meilleur usage possible de toute technologie émergente, il est primordial de bien en maîtriser le fonctionnement et d’en comprendre les limites afin de se prémunir contre tout danger ou problème éventuel à la fois pour les entreprises mais aussi pour les individus.

Avec le développement rapide de l’IA générative, la technologie du Large Language Model (LLM) dont les fondements existent depuis déjà un certain temps, va bien au-delà des simples outils de chat que le grand public connait déjà. Pour la première fois et grâce au développement de l’IA générative, on peut se rendre compte de façon très opérationnelle à quel point la technologie évolue et en quoi elle peut faciliter l’environnement de travail et ainsi permettre de se concentrer sur des tâches qui requièrent un véritable effort de réflexion.

La question de la confidentialité des données, en particulier, étant un sujet extrêmement sensible, la sécurité doit donc constituer une priorité pour chacun envisageant d’utiliser l’IA générative.

On le sait l’IA générative est en mesure d’améliorer les performances des travailleurs. Elle peut également en faire autant pour les personnes qui ont de mauvaises intentions.  Aujourd’hui, et compte tenu de la sensibilisation des employés, il devient difficile pour un escroc de réaliser un piratage type phishing informant des comptables de l’entreprise de la nécessité immédiate d’un transfert d’argent à des salariés en se faisant passer pour le dirigeant de l’entreprise réclamant un transfert d’argent. L’IA générative peut en revanche changer la donne car son usage permet de personnaliser l’e-mail qui sera envoyé, en y ajoutant des données propres à chaque cible : des données qui auront été extraites d’internet sans que cela ne demande aucun effort supplémentaire à l’attaquant.

Mais les risques existent également à l’intérieur même des organisations avec en ligne de mire la fuite de données notamment pour les personnes qui exercent une partie de leur activité en télétravail. Pour aider à la réalisation de toute tâche quotidienne prise en charge par l’outil d’IA, il faudra peut-être prévoir des dispositifs (IoT) supplémentaires, tant au bureau que pour ceux qui travaillent depuis leur domicile. Autrement dit, les équipes de sureté informatiques des entreprises doivent veiller sur un nombre très important de matériels et de solutions disponibles. C’est aussi une toute nouvelle voie que les attaquants peuvent exploiter pour accéder aux données et aux actifs d’une entreprise.

Nous sommes qu’au début d’une ère qui va modifier considérablement nos modèles et comportements. Les perspectives offertes la technologie de l’IA générative (ChatGPT, Bard, Dall-E, Midjourney, etc) sont énormes. Mais comme avec toute nouvelle technologie, des dangers extérieurs viendront toujours chercher à exploiter la moindre faiblesse de la solution.

Il est donc indispensable de s’assurer de disposer de process de sécurité capable de s’adapter rapidement aux nouveaux outils et comportements pour que chacun pousse finalement voir que le côté bénéfique de cette nouvelle technologie et de profiter au maximum de son gigantesque potentiel.

Ce 4ème AI SUMMIT qui se déroulera le 6 Juin 2023 à Lyon réunira encore une fois les meilleurs experts du moment sur le thème « Data et cyber risques à l’heure de ChatGPT »

Ishraf Zaoui
DIRECTRICE CHAIRE DE RECHERCHE INNOVATION DIGITALE, DATA SCIENCE ET INTELLIGENCE ARTIFICIELLE