- Cache Cookies AI
- Posts
- L'IA lit tes émotions, prêt à lui faire confiance ?
L'IA lit tes émotions, prêt à lui faire confiance ?
Plus : Le règlement européen sur l'IA : Va-t-il tuer l'innovation en IA en Europe ? ⚖️

Bienvenue, humains.
L’IA lit vos émotions, EVI vous console... Est-ce la fin de l’interaction humaine ? Cache Cookies t’offre ta dose hebdomadaire d'actualités, d'applications géniales à essayer, de connaissances stimulantes pour le cerveau, les dernières avancées en IA et informations sur le côté sauvage de l’IA.
Ce que tu dois connaître sur l'IA cette semaine
La première voix émotionnellement intelligente du monde est arrivée ! Rencontre EVI de Hume AI ! 🗣️👄
Le règlement européen sur l'IA : Va-t-il tuer l'innovation en IA en Europe ? ⚖️
Découvre les résultats de notre enquête sur les interfaces cerveau-ordinateur : nous avons recueilli vos avis ! 🧠🤖
Pourquoi Cache 🦎 Cookies 🍪?
Nous n'avons pas choisi ce nom au hasard ! Rappelle-toi de ces informations sournoises que ton navigateur stocke - ton cache et tes cookies ? Ils suivent tes aventures en ligne, tout comme cette newsletter explore le côté fascinant et parfois effrayant de l'IA.
Chaque percée incroyable a ses pièges potentiels, et Cache Cookies est là pour t’informer sur les dernières technologies de l'IA. La connaissance, c'est le pouvoir ! En restant informé, nous pouvons tous aider à façonner un avenir meilleur dans ce monde alimenté par l'IA.
L'IA qui lit dans tes pensées les plus intimes, es-tu prêt à lui confier ton cœur ?
Nous assistons à une avancée majeure dans le domaine de l'IA : l'intégration de l'intelligence émotionnelle. Les machines sont désormais capables d'interpréter nos émotions et de répondre avec empathie, ce qui ouvre de nouvelles perspectives dans divers secteurs, notamment celui de la santé. Grâce à ces IA, les personnes peuvent bénéficier d'un soutien personnalisé pour gérer leur stress, leur anxiété et leur solitude, ou encore être encouragées dans leur processus de guérison suite à un deuil ou une maladie.
Te souviens-tu du film Her ?
Eh bien, la réalité rejoint-elle la fiction avec la dernière innovation de la start-up Hume AI, l’interface vocale emphatique, EVI (Empathic Voice Interface) qui interagit avec toi comme un humain ?
Comme dans le film, l'utilisation d'IA dotées d’une intelligence émotionnelle peut-elle entraîner une dépendance émotionnelle brouillant les frontières entre la réalité et les interactions virtuelles ? De même, qu’advient-il de nos données privées que ces applications enregistrent ?
Et si tu rencontrais EVI, une IA capable de comprendre tes émotions ?
Fin mars de cette année, Hume AI annonce une levée de fonds de 50 millions de dollars pour le lancement et le développement de leur produit phare EVI, la première IA vocale au monde émotionnellement intelligente. Le Dr Alan Cowen, ancien chercheur et scientifique de Google connu pour avoir été un pionnier de la théorie de l'espace sémantique, est le fondateur de Hume AI. Selon la start-up, EVI utilise un modèle de langage sophistiqué, appelé empathic large language model (eLLM) pour comprendre et répondre aux émotions humaines.
Cette IA conversationnelle formée sur des millions d'interactions humaines, comprend l'intonation derrière les mots pour détecter les émotions humaines et répondre avec empathie. Selon Hume AI, EVI détecte plus de 24 expressions émotionnelles distinctes dans la voix d'une personne, allant de la nostalgie à la maladresse en passant par l'anxiété, et y répond en conséquence.
Suite au déploiement de sa version beta en septembre 2023 auprès d’une liste d’attente de plus de 2000 entreprises et organisations de recherche dans le domaine de la santé, l’entreprise a établi des partenariats de recherche et d’applications prometteuses dans divers domaines et secteurs, allant du service à la clientèle, aux diagnostiques médicaux précis et des soins aux patients.
Bien que disponible uniquement en anglais, la demo d’EVI vaut la peine d'être essayée.
Je l’ai testée et j’ai trouvé EVI bluffante! Elle a su identifier mes émotions avec une précision remarquable et sa voix est presque indiscernable d'une personne réelle 😲 ! Elle est capable de te dire si tu es heureuse ou triste et elle adapte sa réponse en fonction de tes sentiments, comme un humain. EVI comprend également quand tu finis de parler et s'arrête quand tu l’interromps.
Pourquoi est-ce important pour moi 🦎 ?
Imagine, tu rentres du travail épuisé et tu as besoin de parler ? EVI est là pour toi, prêt à t’écouter, te réconforter et à te donner des conseils avisés adaptés à tes besoins et à ton humeur. Toutefois, il est important de rester vigilant quant aux conséquences de l'utilisation de cette technologie d'IA émotionnelle dans notre vie et dans la société en général. La dépendance émotionnelle aux IA est déjà un problème connu, notamment lorsque l’utilisateur développe des sentiments amoureux envers son compagnon virtuel. De plus, comme le souligne Claire Boine dans son article, les IA de compagnies peuvent également causer des dommages potentiels aux relations entre les utilisateurs de ces systèmes et les autres humains, en les enfermant dans un monde virtuel. Il est également préoccupant d'imaginer que la nouvelle génération puisse grandir en ayant comme principale interaction des compagnons virtuels, car cela pourrait limiter le développement de leurs compétences sociales et émotionnelles.
Ces nouvelles technologies doivent collecter une quantité énorme de données personnelles pour pouvoir nous offrir une expérience sur mesure. La question de la propriété et du contrôle de ces données, ainsi que les risques potentiels de manipulation à des fins publicitaires, sont des préoccupations importantes. Selon un rapport de la Fondation Mozilla, les chatbots tels que Replika (des compagnons virtuels avec qui l’utilisateur peut discuter, échanger des messages, images et vocaux), ne protègent pas adéquatement la vie privée et la sécurité des utilisateurs. Et une fois les données partagées, il est plus difficile de les effacer.
L’UE prévoit notamment de protéger les données personnelles des utilisateurs en imposant des obligations strictes aux entreprises en matière de collecte, de traitement et de stockage des données. Néanmoins, restons attentifs et informés avec Cache Cookies sur la manière dont ces technologies évoluent et façonnent notre avenir.
L'intelligence artificielle au carrefour de l'innovation et de la conformité : L'Acte européen sur l'IA
Le mois dernier, l'Europe a marqué un tournant historique en adoptant la première législation majeure au monde régissant l'IA(voir notre dernière news), l'Acte européen sur l'IA. Cette loi novatrice a pour objectif d'assurer un développement sécurisé et centré sur l'humain de l'IA, en instaurant des limites à la reconnaissance faciale, en proscrivant l'utilisation de l'IA de reconnaissance des émotions dans les établissements scolaires et les lieux de travail (comme illustré par Hume AI précédemment mentionné) et en exigeant une transparence accrue.
Mais alors que cela semble être la réponse parfaite à la croissance rapide et potentiellement disruptive de l'IA, le monde des affaires a soulevé des inquiétudes importantes et les législateurs admettent que l'Acte sur l'IA a été l'une des pièces de la législation européenne qui a fait l'objet du plus grand lobbying ces dernières années ! Plongeons-nous dans le vif du sujet :
Définitions ambiguës, portée incertaine
Le problème : la définition vague de l'"IA" dans l'Acte pourrait créer des lacunes dans la réglementation à mesure que la technologie évolue. Les entreprises exerçant des activités dans l'UE, quelle que soit leur origine, craignent de faire face à des amendes importantes (jusqu'à 30 millions d'euros ou 6 % du revenu mondial !) en cas de non-conformité involontaire.
Exemple : dans le secteur de l'assurance, l'utilisation de l'IA va des simples chatbots aux algorithmes complexes d'évaluation des risques. La catégorisation générale de l'Acte de toutes les IA liées à l'assurance comme "à haut risque" pourrait décourager l'utilisation de systèmes à faible risque en raison des coûts de conformité élevés. Pour en savoir plus à ce sujet, lisez ceci.
Innovation et compétitivité
La crainte : des réglementation strictes pourraient entraver à la compétitivité européenne sur le marché mondial de l'IA. Les coûts de conformité et les limitations potentielles pourraient désavantager les entreprises européennes.
L'argument opposé : certains avancent que l'Acte donnera à l'Europe un avantage concurrentiel. L'"effet Bruxelles" suggère que, en tant que premier régulateur, l'UE peut fixer des normes mondiales, façonnant ainsi la manière dont le monde fait des affaires avec l'IA. Cette stratégie s'est avérée fructueuse avec le règlement général sur la protection des données (RGPD).
Un sondage révèle : une récente enquête du Kent A. Clark Center a révélé que la plupart des experts économiques sont en désaccord ou incertains quant au fait que l'Acte sur l'IA désavantagera la technologie européenne.
L'Acte sur l'IA de l’UE peut-il étouffer l'innovation européenne ? L'histoire de Mistral
Mistral, l'un des concurrents européens les plus prometteurs d'OpenAI et de Google dans le domaine de l'IA, a récemment démontré la complexité des interactions entre les décisions stratégiques des entreprises et les développements réglementaires. Peu avant l'introduction de l'Acte sur l'IA - apparemment à titre préventif - Mistral a conclu un partenariat important avec Microsoft. Cependant, cette évolution n'a pas ralenti l'Acte sur l'IA, qui a été promulgué peu de temps après. Des rapports récents, y compris un article dans le New York Times, suggèrent que les relations entre Mistral et les régulateurs européens se sont depuis stabilisées, les dirigeants européens exprimant un fort intérêt à protéger les intérêts régionaux contre les entreprises technologiques américaines.
Lors d'un récent sommet RAISE à Paris, le PDG de Mistral, Arthur Mensch, a souligné l'importance pour l'Europe de développer ses propres capacités en matière d'IA afin d'éviter de dépendre de technologies non européennes. Il a fait état de la nécessité de créer un "champion européen" de l'IA pour garantir que l'Europe puisse définir sa propre orientation stratégique plutôt que de suivre la feuille de route établie par les États-Unis.

Europe’s leaders at the U.K. Artificial Intelligence Safety Summit last year. Pool photo by Toby Melville
Malgré cette vision ambitieuse, Mistral fait face à des défis importants. La société a levé environ 500 millions d'euros et génère plusieurs millions d'euros de revenus récurrents, mais ces chiffres sont éclipsés par les financements obtenus par ses concurrents américains tels qu’OpenAI et Anthropic, qui ont respectivement levé 13 milliards de dollars et 7,3 milliards de dollars. Cette disparité flagrante soulève des questions sur la capacité de Mistral à rivaliser sur un terrain aussi inégal.

Convergence mondiale : les réglementations sur l'IA prennent forme
Alors que l'UE a pris les devants avec son Acte sur l'IA, les autres grandes puissances ne restent pas les bras croisés. Il est intéressant de noter que les États-Unis et la Chine se dirigent tous les deux vers des cadres réglementaires fondés sur les risques similaires à l'approche de l'UE :
ÉTATS-UNIS : 2023 a été une année de progrès importants pour la politique américaine en matière d'IA. Le décret de Biden a exigé plus de transparence et d'étiquetage pour le contenu généré par l'IA. 2024 devrait s'appuyer sur ces bases, et l'Institut américain pour la sécurité de l'IA, fondé en début d'année, jouera un rôle capital dans la mise en œuvre des politiques énoncées dans le décret. Les États-Unis se dirigent également vers un cadre réglementaire basé sur les risques similaires à l’Act sur l'IA de l'UE. L'élection présidentielle de 2024 aura probablement une influence sur le débat en cours concernant l'impact de l'IA, en particulier sur les réseaux sociaux.
CHINE : En Chine, la réglementation de l'IA a traditionnellement été réactive, avec des lois distinctes pour les services de recommandation tels que les applications similaires à TikTok et les moteurs de recherche, les deepfakes et l'IA générative. Cette approche permet de réagir rapidement aux nouveaux risques, mais manque de stratégie cohérente et globale. Cependant, des changements majeurs sont en cours. En juin 2023, la Chine a annoncé des plans pour une "loi sur l'intelligence artificielle" complète, similaire à la l’Act sur l'IA de l'UE.
Les interfaces cerveau-ordinateur : les résultats de notre enquête sont là !
Dans notre dernière newsletter, nous vous avons demandé de donner votre avis sur les interfaces cerveau-ordinateur, également connues sous le nom de BCI (pour Brain-Computer Interfaces) en anglais, telles que Neuralink. Voici ce que vous nous avez répondu :

L’opinion majoritaire : vous êtes nombreux à penser que les BCI ont un énorme potentiel, mais qu'il est essentiel de les réglementer strictement pour gérer les risques.
Y a quand même des sceptiques : pas mal d'entre vous (et pas une petite minorité, hein) pensent que les risques sont trop importants et qu'il vaudrait mieux arrêter complètement les BCI.
Pas de fanatique du "no limit" : ouf, personne ne veut développer les BCI n'importe comment, c'est plutôt rassurant.
Alors, qu'est-ce qu'on retient ? Bah, vous voulez de l'innovation dans les BCI, mais de manière responsable et sécurisée. C'est le message que vous nous envoyez.
T'as pas encore voté ? Fonce ! Ton avis compte, clique ICI pour le donner.
Merci à tous d'avoir participé !
Opportunités d’emploi
C'est tout pour le moment ! Tu veux plus d'informations savoureuses sur l'IA ? Rendez-vous sur notre site web. Rejoins-nous sur LinkedIn @Mila & @Zeynep. Pendant que tu y es, fais passer le mot et partage Cache Cookies avec tous les cookies intelligents que tu connais.
Comment fonctionne EVI ?