top of page
Rechercher

LA BULLE DE L'IA : ENTRE PROMESSES ET RÉALITÉS ?

khazzaka
L'IA peut-elle réellement transformer la gestion financière ou s'agit-il simplement d'une bulle promettant plus qu'elle ne peut offrir ?
Quel est le potentiel du web3 à la puissance de l'IA (web3^AI) et comment profiter en entreprise de ces 2 révolutions ?

Replay du Webinar donnée par Valuechain Consulting avec le groupe Diapason et Syrtals le 15 novembre 2024



La conférence aborde l'IA dans la finance, mettant en évidence la croissance du marché et l'adoption croissante, mais soulignant également les limites actuelles de l'IA en termes de maturité technologique, de conscience et de généralisation.

Le webinar met en lumière les différences entre l'intelligence humaine et l'IA, ainsi que les défis de l'utilisation appropriée de l'IA dans les entreprises. En outre, il soulève la question de la bulle actuelle dans le domaine de l'IA. Les investissements massifs dans l'IA soulèvent des inquiétudes sur une bulle spéculative, avec des valorisations disproportionnées par rapport aux revenus générés. La comparaison avec la bulle internet de 2000 est évoquée. L'absence de conscience et de capacité de raisonnement des modèles d'IA est soulignée, avec des exemples concrets de limites de raisonnement. Cette analyse met en lumière les défis et les risques liés à l'engouement actuel pour l'IA, tout en soulignant l'importance de la conscience dans ce domaine. L'orateur aborde plusieurs points concernant l'IA, notamment ses limites mathématiques, sa consommation énergétique croissante, et son utilisation pratique. Il présente des démonstrations de l'IA en action, notamment dans l'analyse de vidéos en temps réel et la simulation de dialogues entre experts. Il souligne l'importance de contrôler et de comprendre l'IA malgré ses capacités limitées, tout en mettant en garde contre son impact énergétique considérable.

Une démo est réalisée simulant un économiste (LLM Mistral) et un physicien (LLM Gemma) qui travaille ensemble sur un projet complètement avec une IA en local, soulignant les avantages de cette approche pour l'efficacité des entreprises. La démo illustre la puissance des LLM pour augmenter l'efficience du travail avec ses limites nécessitant l'accompagner avec l'intelligence humaine. En mettant en avant un exemple concret de l'audit de contrats par de l'IA, Valuechain a illustré la maturité actuelle de l'IA et ses bénéfices potentiels pour les entreprises.



Et voici un verbatim automatique généré par la solution Valuechain Verbatim :


On va parler, comme on a annoncé dans le titre de l'événement, de l'IA dans la finance entre promesses et réalités, ce qui veut dire est-ce qu'il y a une bulle ? On va essayer aussi de répondre à deux questions. La première question, est-ce qu'il y a des risques ? Est-ce qu'il y a une grande bulle d'un côté ? Et comment on peut en tirer profit aujourd'hui dans l'entreprise ? C'est quoi les capacités actuelles en termes de maturité des IA ? Si vous voyez le titre Web3, la puissance de l'IA, c'est parce que c'est un extrait aussi d'un grand cours, d'une grande formation sur le lien entre les deux mondes, le Web3 avec les blockchains et d'un côté l'IA, mais on va bien sûr se concentrer que sur l'IA aujourd'hui.

Donc d'ailleurs, si on commence d'abord par parler un peu du market cap de l'IA en 2020 et 2030, vous vous rendrez compte tous que l'IA a fait un grand bond, on a vu un grand pas récent de l'IA avec l'arrivée des LLMs, ça se mesure aussi en dollars. Aujourd'hui, on est à peu près à 300 milliards de dollars en termes de market cap et les projections sont très très très positives, ce qui risque de quasiment plus que doubler d'ici 2030, donc en moins de 6 ans, en moins de 5-6 ans.

Donc ça, c'est les projections en termes de croissance du marché, ça nous donne un indicateur que le marché il est très dynamique en forte croissance avec des rythmes que bien sûr de bulles à identifier. Et le deuxième indicateur que je vous partage, c'est le nombre d'utilisateurs.

Donc sur la même période, le nombre d'utilisateurs, il a bondi de 2020 à 2024 de 115 à 300 millions d'utilisateurs, les projections vont aussi à 700 millions, quasiment un milliard d'utilisateurs d'ici 2030. Donc on voit quand même des grands acteurs connus aujourd'hui en termes de marques, elles sont majoritairement tous en LLMs, des Large Language Models, mais il n'y a pas que ça dans l'intelligence artificielle évidemment.

Donc voilà, ça nous donne une indication très très forte de l'augmentation de l'adoption. Alors à comparer avec par exemple les chiffres du domaine du Web3, le market cap des cryptos, ce n'est pas 700 millions, c'est 2800 milliards de dollars en chiffre d'affaires, c'est 2,8 trillions de dollars.

Donc vous vous rendez compte un peu de la maturité, de la différence de la taille des deux marchés d'un côté, de l'autre côté en termes d'utilisateurs, l'IA aujourd'hui elle n'est pas à 300 millions d'utilisateurs, l'IA est à 314 millions et les cryptos, la blockchain est à 580 millions d'utilisateurs. Voilà, ça vous donne un peu un comparatif de dynamique des deux industries.

Juste rappeler un peu les basiques, qu'est-ce qu'on distingue réellement entre intelligence naturelle et intelligence artificielle. L'humain il pense, il comprend, il s'adapte, on a tous appris qu'être intelligent c'est s'adapter, et l'intelligence artificielle elle simule, elle simule cette intelligence. Bon dans des machines programmées ou qui apprennent, c'est surtout pour résoudre des problèmes en général quand on utilise l'IA.

Les différences de caractéristiques, nous avons une flexibilité cognitive aujourd'hui que l'IA n'a pas, ça c'est une grande différence en termes de caractéristiques. Alors il y a plusieurs IA, il y a des IA basées sur des systèmes experts qui ont une sorte d'intelligence, l'apprentissage automatique supervisé ou non, les réseaux de neurones, l'apprentissage profond. On va pas très tarder sur les distinctions entre chacune, mais sachez qu'il y en a plusieurs.

Et en comparaison en termes de processus d'apprentissage, l'humain c'est souvent par observation, c'est souvent en copiant, copier c'est une façon d'apprendre. Il avait pillé les inventions des autres pour pouvoir créer Apple Pay. Et on teste beaucoup avec des ECR. Alors que les machines, bon il y a différents modèles aussi d'apprentissage. Il y a l'apprentissage supervisé ou non, mais il y a des difficultés à généraliser. Et ça on va le voir aujourd'hui en termes de limites de l'IA.

L'IA a du mal à généraliser alors que l'humain il est mieux dans la généralisation, on va voir pourquoi. Et enfin sur la partie cognitive, ça c'est le graal de l'IA recherché par Google depuis des décennies.

Quand on parle de la cognition, la conscience, l'humain il est conscient, il comprend, il donne un sens, il a non seulement une intelligence intellectuelle mais une intelligence émotionnelle aussi, créative. Les limites de l'IA aujourd'hui c'est qu'elle est limitée par des tâches computationnelles. Elle ne fait que des calculs, même l'apprentissage profond produit une forme de calcul uniquement.

C'est un excellent, il est excellent pour les tâches répétitives en revanche, bien meilleur que l'humain dans ce cas là. Mais on n'a pas parlé suffisamment de la conscience.

Mais avant ça, je rappelle qu'il y a un livre, très très joli livre qui date de plusieurs années avant la sortie des LLM d'ailleurs, il s'appelait Life after Google, the fall of big data and the rise of the blockchain economy.

Et dans ce livre, ce monsieur là George Gilder qui est ami avec Larry Page, il est ami avec le président de Google, de Apple, de Oracle, de Microsoft, c'est un ingénieur aussi, il a produit dans ce livre les résultats et la vision des dirigeants de ces entreprises sur l'IA et la big data.

Il a rappelé dans le livre que pour entraîner un modèle d'IA, pour reconnaître dans une image un chat ou un chien, on a besoin d'une station nucléaire, on a besoin de centaines de milliers de cartes graphiques dans des datacenters, donc c'est carrément des mégawatts, 50 mégawatts, 100 mégawatts, vous allez voir les chiffres après, pour entraîner le modèle.

Et le datacenter, il doit boire une rivière d'eau comme la Seine pour se refroidir dans ce temps, ça dégage autant d'énergie.

Pour apprendre un modèle, de reconnaître dans une photo si tu as un chat ou un chien d'une façon relativement pliable, et pas toujours. Le même apprentissage, un cerveau humain d'un enfant de 3 ans ou 4 ans, il prend 14 watts pour faire exactement le même apprentissage et il a besoin de moins de quantité de données pour l'apprentissage aussi.

Donc ça vous donne un indicateur de l'immaturité technologique encore que nous avons dans l'intelligence artificielle. Ça n'enlève en rien qu'on a fait des grands bons, ça n'enlève en rien qu'il y a des gains de productivité, il y a des résultats assez impressionnants, mais à un prix infiniment cher et avec une efficacité infiniment encore faible par rapport à l'humain, malgré tout.

Donc je dépasse ce point-là pour rappeler aussi le fameux théorème de Turing, le test de Turing, Turing qui avait dit, sachant que Turing c'est l'inventeur de l'ordinateur, il a dit qu'un ordinateur mériterait d'être appelé intelligent s'il pouvait tromper un humain en lui faisant croire qu'il est humain.

Voilà, dans un dialogue, un dialogue aveugle. Actuellement, on peut tous se rendre compte, mais vraiment tous, que quand on parle avec Fred WPT, c'est impressionnant, mais on se rend compte que c'est une machine derrière, malgré tout.

Donc pour le moment, la machine, l'IA, elle a fait un très grand bon, mais elle n'a pas encore atteint l'objectif de tromper un humain complètement. On verra après pourquoi.

Donc les méthodologies, je ne vais pas m'attarder sur ce point, quel IA utiliser et quand est-ce qu'il faut utiliser des systèmes experts sans IA par exemple.

Il y a encore beaucoup, beaucoup de cas d'usage pour lesquels la réponse elle est par défaut. Vous n'avez pas besoin d'une IA pour ça, très clairement.

Il y a d'autres cas où l'IA, elle est intéressante en complément de système expert.

Il y a très, très, très peu de cas aujourd'hui où l'IA, elle est suffisante à elle seule.

Donc ça, je ne vais pas rentrer dans des détails, mais on peut parler de quelques cas d'usage. Typiquement, vous prenez des entreprises qui traitent des données dans 29 pays. Ces données-là, elles sont bien sûr massives, mais ce sont des données bien codées, bien structurées.

Typiquement, des pannes sur des machines, des supports de cartes bancaires, des pannes dans des voitures et des systèmes d'assistance. Je vous parle de clients que j'ai servi et on a bien étudié l'avantage d'une IA ou pas pour résoudre leurs problèmes.

Les systèmes experts étaient des dizaines de fois plus efficients et plus fiables pour rendre le même service à des coûts infiniment moins chers encore et beaucoup plus fiables.

Ceci dit, l'IA, elle peut, elle peut répondre à une partie du besoin, mais elle n'était pas suffisamment efficiente. Et puis, il y a d'autres problèmes. La partie IA, elle est souvent sur des appuis, souvent à distance, souvent sur des serveurs, parfois à l'étranger. Il y a du IAlocal aussi, je vais vous présenter une partie aujourd'hui. Mais il y a toutes ces problématiques qui viennent s'ajouter à quand est-ce qu'il faut utiliser l'IA, quand est-ce qu'il ne faut pas l'utiliser. On en reviendra sur des cas d'usage après.

Donc, avant de passer à des démos, parce que je vous ai préparé des démos aujourd'hui aussi, parlons un peu du risque de bulles sur l'IA. Actuellement, il est très clairement identifiable une bulle sur l'IA. Donc, j'attire votre attention que dès qu'on voit qu'il y a une augmentation exponentielle des investissements, 42 milliards levés en une année, juste sur des start-up IA, c'est un indicateur de bulles. A lui seul, non, mais regardons les autres indicateurs.

L'IA générative, donc les LLMs, a attiré 48% de ses financements. Les marchés de l'IA sont estimés selon Bloomberg d'augmenter à 1300 milliards de dollars en 2032, soit une augmentation quasiment exponentielle de 43% par an. 1000 milliards en investissement les prochaines années selon Goldman Sachs, donc c'est exactement les mêmes chiffres, mais vous vous rendez compte qu'il y a une très grande partie de spéculation, un vrai indicateur de bulles.

Pour continuer d'analyser, en octobre 2024, OpenAI a atteint 157 milliards de dollars, après une levée de fonds en termes de valorisation. Perplexity, qui est un concurrent bien sûr, elle a atteint une valorisation de 9 milliards alors qu'elle était valorisée à 500 millions, aussi en une année.

Donc vous vous rendez compte que, est-ce que les revenus ont suivi ? Est-ce qu'il y a eu un revenu face à ça ? Eh bien, il y a une grande divergence entre valorisation et revenu. OpenAI, elle génère 3 milliards par an, 3,4 milliards de dollars par an, alors qu'elle est valorisée à 157 milliards en dette et en valorisation. Perplexity, c'est encore pire, 50 millions de dollars par an en revenu, donc c'est mieux qu'OpenAI, alors qu'elle est valorisée beaucoup moins, à 9 milliards. Le ratio de 180 entre prix et vente, c'est un indicateur très très fort, extrêmement élevé par rapport aux revenus actuels.

Donc en dernier point, la comparaison avec la bulle internet de 2000, c'est à peu près la même chose qui s'est passée. Le capital risque, les investissements en 5 ans, ils ont augmenté de 1150%. Pourquoi je vous dis ça ? Je vous dis qu'actuellement, il y a beaucoup d'effervescence sur l'IA, il y a beaucoup d'intérêt, il y a beaucoup d'espoir et très clairement, en termes de chiffres, en revenus, face à ça, les maths, en général, ne trompent pas souvent.

On est face à une très grande bulle de l'IA. Alors, est-ce que ça veut dire que l'IA va s'effondrer ? Eh bien non. Est-ce que ça veut dire que l'IA, on ne va plus l'utiliser non plus ? La question, c'est qu'est-ce qu'on peut faire réellement avec l'IA ? Avec tous ces milliards et des milliers de milliards qui seront investis, leur valeur, elle sera bien inférieure, mais il y aura une valeur quand même.

Il y a encore un point important à l'IA, donc on n'a pas beaucoup de temps aujourd'hui, c'est une petite conférence, mais quand même la notion de conscience, elle est fondamentale. Il faut savoir que pourquoi OpenAI existe, c'est parce qu'il y a eu une bataille, une bagarre réelle entre Elon Musk et Larry Page. C'étaient des amis, c'étaient les meilleurs potes qui dormaient sur le canapé, dans leur maison, parce qu'ils papotaient toute la nuit. Et un jour, Elon Musk, il disait à Larry Page « Moi, l'IA m'inquiète ». Larry Page, Google, dit « Moi, je vais faire une IA consciente qui est capable de cloner le cerveau et tous les neurones de l'humain et du coup devenir immortel. Et entre-temps, on n'aura plus besoin de beaucoup d'humains sur Terre non plus. » Donc voilà, ça partait dans ce sens-là. Et là, Elon Musk, comme un héros utopique, il aime beaucoup la science-fiction, il s'est bagarré, il s'est engueulé avec son ami. Il a dit « Je ne te parle plus, je ne viens plus te voir.

» Et il a sorti des centaines de millions d'euros pour créer OpenAI. Et il a appelé OpenAI et il a fondé OpenAI. Il a acheté toutes les données d'OpenAI, des RLM. Il a dit « Vous m'entraînez un modèle qui peut tuer Google. Je veux que vous m'entraîniez un modèle d'intelligence artificielle pour que les gens n'aillent plus rechercher sur Google et je veux rendre ça open source et je veux donner ça à tout le monde. » Donc, c'est dans cette engueulade-là, dans cette bataille-là, dans ce débat-là qu'OpenAI est né et que les LLM ont fait un bond. C'est parce qu'il y a eu une volonté humaine, certainement d'abord de Elon Musk, pour la rendre en publique. Et la question de la conscience, je vous invite à voir cette vidéo, les talks de Google. Ils ont invité un très grand gourou indien, hindou. Il est très intelligent, vous pouvez le voir parce que ce n'est pas n'importe qui Issa Gourou, pour ceux qui ne le connaissent pas. Il a prouvé, en théorie, il a prouvé en réflexion avec Google que l'IA n'aura jamais une conscience.

Parce qu'il y a une différence entre intelligence, l'intelligence qui nous permet de découper un problème en des petits morceaux pour le résoudre et pour le rendre soluble, qui dit résoudre, qui dit analyser, qui dit découper. Ça veut dire découper en morceaux. Dans l'analyse en chimie, on casse quelque chose pour le rendre plus petit, on l'analyse. C'est ça l'outil du cerveau. Donc l'intelligence, elle sert à ça. Elle sert, l'image c'est un couteau. Si on a un couteau plus fin, on peut couper des morceaux plus petits. Si on a un couteau microscopique, on peut couper des molécules carrément. C'est à ce moment-là qu'on peut voir la limite de l'exercice de l'intelligence. Elle ne sert pas à reconstruire, elle sert à couper des grands problèmes en des petits morceaux.

C'est la conscience derrière, c'est la main qui tient le couteau, qui dit qu'est-ce qu'il faut couper et qui dit qu'est-ce qu'on fait après avoir coupé. Donc là, je ne vous fais pas tout le dialogue philosophique ou carrément spirituel si vous voulez, allez voir la vidéo, mais elle est incroyablement fondatrice sur les limites de l'IA et ce ne sera pas la seule que je vais vous présenter aujourd'hui.

Mais passons d'abord à un papier scientifique publié par des chercheurs d'intelligence artificielle qui travaillent chez AppleIntelligence, mais c'est un papier scientifique publié par ces six personnes que vous voyez ici. Et le titre du papier est très récent qui dit on va comprendre maintenant les limites des LLMs en termes de raisonnement.

Et ils ont prouvé dans le papier que les LLMs et l'IA en général ne peut pas raisonner. Tu vois, c'est même pas avoir une conscience parce qu'atteindre une conscience, c'est un autre niveau de l'intelligence. Ce n'est pas de l'intelligence, c'est une identité qui comprend l'intelligence et qui l'utilise. Mais là, ce n'est même pas ça. Là, c'est l'intelligence elle-même artificielle. Elle est capable de réfléchir, mais pas de raisonner.

Réfléchir veut dire je produis un résultat de l'IA et je demande à l'IA d'analyser son propre résultat et de réfléchir. C'est comme une réflexion dans un miroir. L'IA se regarde dans un miroir. En revanche, raisonner, c'est autre chose. C'est donner un sens à un résultat. Donner un sens et prendre des décisions intelligentes et correctes après.

Et pour vous donner un exemple de la limite, il y en a plein dans le papier, je vous invite vraiment à lire, c'est un papier fondateur de la limite de l'intelligence artificielle. Si on prend des exercices de maths qui sont donnés pour ceux qui souhaitent avoir un niveau en anglais ou un niveau de maths pour immigrer aux États-Unis par exemple, c'est des exercices de maths parfois faciles, parfois compliqués. Mais si vous prenez n'importe quel exercice, Michel a 30 pommes, il donne 5 pommes à Thierry, il lui en reste combien ? C'est une question simple. L'IA sait répondre. Mais il suffit dans le prompt d'insérer des parasites, des données qui ne servent à rien, mais 5 de ces pommes étaient plus petites que la moyenne. Et là, tous les LLM sans exception se trompent très souvent ou beaucoup plus souvent pour la réponse.

Parfois, ils ont la bonne réponse, mais très souvent, ils se trompent. Et les résultats sont terrifiants parce que c'est terrifiant en termes d'usage si on veut se baser sur l'IA pour prendre des décisions. Là, vous voyez plusieurs modèles, vous voyez GPT-O1, Preview qui est le meilleur modèle le plus intelligent d'OpenAI. Vous voyez Gemma, le module de Google, Mistral qui est une LLM française, GPT-4O. Voilà, vous voyez Phi, LLM, il y avait aussi Claude avant. Donc, ils ont comparé toutes les IAs. Et la majorité a une baisse d'accuracy, de précision de moins 65 %. La moyenne, c'est moins 40 %, moins 44 %.

Alors qu'on n'a rien fait sur la donnée, l'hypothèse est restée la même. Un être humain ne se trompe jamais, à moins que ce soit quelqu'un qui n'est pas concentré du tout ou un enfant qui ne comprend pas un peu le français ou l'anglais. Si j'ai donné 5 pommes à Thierry, mais ils étaient plus petits que la moyenne, combien de pommes il me reste, c'est quand même évident pour un humain. Eh bien, l'IA n'est pas capable de raisonner, elle ne comprend pas la donnée.

Pour ceux qui ne connaissent pas, et je suis sûr qu'il y a des experts IA avec nous sur le call, mais pour ceux qui ne le connaissent pas, quand vous écrivez un prompt à ChatGPT ou n'importe quelle LLM, ils transforment le texte du prompt en des tokens. Bon, pour simplifier, on va dire c'est chaque 3 caractères, quels que soient les caractères, c'est un token. OLI de Oliver, il dit OLI pourrait devenir un token par exemple. Et il y aura une liste de tokens. Et elle va les projeter sur son espace d'entraînement, parce que son LLM, son espace à matrice d'entraînement. Et elle va les chercher autour, juste pour simplifier l'intersection, la projection, là où ça touche, les autres tokens autour. Et elle va nous les ramener, elle va les transformer en 3 lettres, Oliver. Elle va écrire par exemple double the number, etc. Ça va ramener ça en texte, et ça va vous l'afficher. C'est pour ça que c'est très rapide, parce que c'est un modèle pré-entraîné, sauf que ça comprend rien du tout. Et s'il y a une petite erreur, un petit parasite dans le prompt, il n'est pas capable de le détecter malgré les réflexions.

Je vous indique que les résultats que vous voyez sur preview de GPT, sur GPT 4, il fait de la réflexion. Il triche. C'est multimodal. Et il analyse sa réponse. Et malgré ça, il a un résultat de moins de 30%.

Je ne m'attarde pas sur ces points. J'insiste seulement sur un dernier point. Mathématiquement, il y a une preuve, un théorème, qui prouve que l'IA ne peut jamais diverger. Ça veut dire que son niveau d'intelligence ne peut jamais dépasser un seuil pré-calculable. Ça veut dire qu'elle ne peut pas augmenter à l'infini sans contrôle. On peut prédire que cette IA ne pourra jamais dépasser cette limite. Cette limite peut être supérieure à mon intelligence à moi dans certains domaines. Il n'y a pas de souci là-dessus.

Sauf que je peux, moi, créer une autre IA qui convergera vers une valeur supérieure pour battre la première IA. Et c'est tout ce qui se passe entre Gemmain, Mistral, GPT, Claude aujourd'hui, et Ollamain, etc.

Dernier point, c'est comme on l'a vu avec les chess, les jeux d'échecs. Garry Kasparov a été battu par Deeperblue d'IBM, puis Stockfish a battu Deeperblue, puis AlphaZero a battu Stockfish. Même si l'IA nous dépasse dans certains domaines, on peut toujours créer une IA dont on peut calculer par avance son intelligence maximale, qu'elle ne pourra jamais dépasser, mais au moins elle pourra battre une autre IA.

Voilà. En dernier point, sur la partie énergétique, l'IA représente près de 2% de la demande énergétique mondiale aujourd'hui. Elle peut atteindre en 2026 la consommation du Japon en électricité, juste pour entraîner les modèles et pour que ça tourne. L'IA générative, parfois, consomme 33 fois plus d'énergie pour faire une même tâche qu'un modèle expert, quand c'est applicable, bien sûr. Donc, parfois, c'est pas efficient d'utiliser l'IA. Et GPT-3, par exemple, il y a une nécessité de 1300 MW pour être entraîné, GPT-4, 50 fois plus. Wells Fargo estime qu'en 2024, 2025, 2026, elle augmente de 550%. On va passer de 8 TWh par an à 52 TWh par an.

À titre de comparaison, Bitcoin consomme 80 TWh par an. Ça c'est selon le papier que j'avais publié, qui a corrigé Cambridge. Et Cambridge, elle a revu, Cambridge Bitcoin Consumption Index, suite à la publication de mon papier, ils ont revu leur estimation de la consommation de Bitcoin à la baisse et ils se sont alignés avec mon papier et mes résultats. Selon cette estimation ici, il y a une crainte que l'IA consomme 152 TWh par an.

C'est autant que toute l'industrie bancaire au monde, même un peu moins. Mais voilà, c'est quand même des chiffres gigantesques.

Pour laisser assez de temps à mes camarades, je termine avec deux démos. On ne va pas passer trop de temps là-dessus, mais une première démo.

OK. Ce qu'on va faire, c'est qu'on va prendre, ça c'est une application qui est utilisée en production dans certains entreprises qui travaillent dans le montage vidéo, dans le marketing.

Donc typiquement, vous prenez n'importe quel enregistrement vidéo, que ce soit de vos caméras qui peuvent être parfois très lourdes, genre 500 gigas, une vidéo 4K ou 8K enregistrée ou n'importe quelle il y a sur Internet.

Là, pour la démo, je vais prendre Apple Intelligence, c'est une vidéo dans laquelle ils ont fait leur lancement de leur produit d'intelligence artificielle. Et typiquement, juste pour démontrer, je vais utiliser le système d'IA pour analyser cette vidéo en temps réel avec vous.

Donc là, ce que vous voyez, c'est que l'IA, elle va bien sûr d'abord aller télécharger la vidéo. J'agrandis un peu l'écran. Elle va évidemment transformer le son en texte. Donc, c'est ce qui est en train de se passer maintenant.

Voilà, c'est fait. Elle découpe les morceaux. Parce que ça, si je vous montre un peu le back-office, le back-end d'une solution, elle crée des micro-fichiers audio pour chaque mot, pour chaque phrase. Là, on a le verbatim quasi complet de cette vidéo.

Elle va l'analyser. Je n'aime pas utiliser le mot comprendre. Vous voyez, parce que l'IA ne comprend rien du tout. Elle n'est pas consciente. Elle ne peut pas comprendre. Mais elle peut très bien analyser. C'est un couteau bien aiguisé.

Donc là, elle va analyser ce texte. Elle va vraiment faire une analyse du texte au sens qu'on faisait à l'université ou à l'école. Et elle va le formater. Elle va créer des paragraphes. Elle va créer des chapitres. Elle va mettre des titres si besoin. Elle va créer des sections.

Donc là, c'est un petit exemple. À mon avis, il n'y aura pas de chapitre. Il n'y aura pas de petite vidéo de 5 minutes. Effectivement, j'utilise l'avant-passante aussi pour partager la vidéo.

Mais voilà, on voit que ça avance bien. Comme vous voyez, il y a des coûts. Vous voyez qu'il y a des costes de 0 centime, 0,00 centime. Parce que dans cet exemple, j'ai utilisé les API d'OpenAI. Donc ça, ce n'est pas en local.

Et ce que vous voyez, ce qui s'en sort ici, c'est que l'IA, elle n'avait pas vu la vidéo avant. Moi non plus. Elle me propose un titre, Apple Intelligence, Personalized AI for Mac, iPad et iPhone. Elle a mis un petit titre de troisième niveau. Elle a mis des hashtags si on veut publier après. Elle m'a résumé la vidéo.

En général, l'outil, il fait un one pager s'il y a suffisamment de contenu. C'est-à-dire que l'Executive Summary, c'est souvent des conférences de trois heures ou de cinq heures ou de plusieurs journées. Et il y a un Executive Summary qui sort instantanément d'une conférence. Et puis, il y a bien sûr tout le verbatim qui sort après.

On ne va pas lire, mais ça vous donne une idée de comment l'IA est utilisé aujourd'hui en production dans les entreprises. Ça, c'est un premier exemple.

Et je termine par un exemple qui me semble être plus marquant. Ce qu'on a vu ensemble, c'est que l'IA, effectivement, elle ne peut pas comprendre, elle ne peut pas raisonner, mais elle peut très, très bien réfléchir.

Et ce qu'on demande en général à un consultant ou une équipe, c'est de réfléchir et de travailler sur un sujet. Et là, ce que je vais vous montrer, c'est un exemple qu'on va simuler. On va simuler des employés.

Imaginez une entreprise qui simule avec de l'IA un employé marketing, un employé ressources humaines, un employé juridique, conformité, un employé ingénieur, un employé commercial, et puis même un employé secrétariat, gestion de projet, etc.

Et que ces IA collaborent ensemble sur un sujet. Vous leur donnez un dossier, vous leur dites voilà, on doit répondre à une appelle d'offre. Il faut couvrir les références, il faut couvrir notre proposition de valeur, il faut couvrir une proposition, une démarche, il faut parler de l'ingénierie, de l'architecture.

Et c'est l'IA qui va avoir une équipe simulée. C'est une équipe artificielle qui va travailler.

Puis l'autre élément, c'est qu'on ne peut pas utiliser très souvent les API de OpenAI de Microsoft aux États-Unis pour envoyer des dossiers, des données confidentielles. Donc on a besoin que l'IA soit locale totalement.

Et c'est exactement ce que je vais vous démontrer maintenant. Donc là, on va prendre un exemple totalement local. La simulation que je vais vous faire, c'est un dialogue entre deux employés seulement, juste parce qu'on n'a pas de temps dans ce court temps.

Je vais simuler un sujet qui est un peu neutre pour tout l'auditoire. C'est un travail, un dossier, un scientifique, un économiste de la théorie monétaire, donc un spécialiste de la théorie monétaire, de la politique monétaire des banques centrales par exemple, économiste, et un débat et un travail qu'il va faire avec un scientifique, physicien, qui va rapprocher la théorie monétaire de la théorie de la thermodynamique.

Vous voyez, j'ai juste choisi un sujet qui peut être intéressant, mais neutre un peu par rapport à nos questions d'aujourd'hui, pour vous démontrer le cas d'usage.

Typiquement, on peut imaginer que la monnaie peut ressembler à l'énergie dans l'économie. Il y a des lois qui s'appliquent dans la thermodynamique. Est-ce qu'on peut les transposer aux formules mathématiques qu'on connaît de la théorie monétaire ? Est-ce qu'il y a des diversions ? Etc. Est-ce qu'il y a des différences ? Etc.

Donc là, cette IA, elle va simuler deux personnages, un physicien et un économiste, qui vont dialoguer et travailler ensemble.

Dans le code, il y a la commande étudier ce sujet de point de vue à la fois physique et mathématiquement économique.

Là, vous voyez que j'ai choisi Mistral comme économiste et j'ai choisi Gemma de Google comme scientifique, physicien, thermodynamique.

Et là, il y a des rounds. Là, ils vont échanger cinq fois entre eux. Ça peut être 100 sans aucun problème.

Vous voyez tout de suite que l'économiste, il a sorti la formule MV égale PQ, qui est la masse monétaire fois la vélocité de la monnaie, égale au prix fois la quantité des biens ou des produits échangés dans l'économie. Et ils sont tout de suite entrés dans le code du sujet. Il y a des formules, ED, moins, moins S, etc.

Donc là, c'est une réponse qui vient de Mistral à Gemma et il y a des conclusions entre eux.

Je ne vais pas m'attarder sur le contenu, ce n'est pas du tout le but. En revanche, vous voyez que deux IA, en communiquant local que sur mon point de travail, sans passer par Internet, ça veut dire qu'ils peuvent être alimentés par des dossiers de mes clients à moi, des fichiers Excel, des historiques de transaction, des spécifications, des règles, des réglementations, tout en respectant la RGPD si nous avons le consentement de travailler sur ces données en local.

Et le résultat qui encore, j'ai juste exécuté le code avant cette démo-là. Ça prend trois minutes. Mais en gros, vous voyez que Mistral, économiste, elle a parlé avec Gemma, le physicien, qui ont rappelé les règles à la fois de la thermodynamique et à la fois de l'économie. Et ils sont sortis par une étude, ils ont carrément écrit une étude sur le sujet.

Donc j'arrête un peu le partage de mon écran pour revenir à la caméra pour vous dire que même s'ILIA vit une bulle, même s'ILIA a des limites qu'elle ne pourra jamais être consciente, ce n'est pas ce qu'on lui demande. On lui demande d'augmenter l'efficacité de nos entreprises, on lui demande d'augmenter la satisfaction de nos clients.

Et on peut faire ça aujourd'hui à certains niveaux, accompagné toujours par l'humain parce qu'il y a toujours des billets à aller identifier dans l'IA, mais les résultats peuvent être incroyablement productifs pour nos entreprises dès aujourd'hui.

Typiquement, nous avons un client qui a des millions de contrats qu'il doit auditer par exemple. Il y a un million de contrats à auditer, il y a des clauses dans ces contrats qui doivent être conformes. C'est impossible de faire ça avec des systèmes experts.

On ne peut pas aller scanner des photos, chercher la formulation parce que la formulation peut être différente d'une version à une autre. Là, on a besoin de LLM pour faire ça. Sauf qu'on ne peut pas envoyer les contrats de financement de nos clients à OpenAI sur Internet.

Eh bien aujourd'hui, on peut tout faire en local. Ça vous démontre la maturité de ce qu'on peut tirer aujourd'hui de l'IA. Voilà, je vous remercie beaucoup.

2 vues0 commentaire

Posts récents

Voir tout

Comments


bottom of page