Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Vers une télépathie artificielle ? Des chercheurs décodent la parole interne

Vous avez déjà rêvé de communiquer par la pensée ? Eh bien, accrochez-vous à vos 2 neurones, car la télépathie pourrait bien devenir réalité plus vite que prévu ! En effet, des chercheurs de l’Institut de Technologie de Californie (Caltech) viennent de franchir une étape cruciale en créant un dispositif capable d’e lire et de traduire d’interpréter la petit voix qu’on a l’intérieur de la tête. Et oui, ils ont réussi à décoder les mots qui se baladent dans votre cerveau !

Alors, comment ça marche ? Et bien les scientifiques ont recruté 2 personnes atteintes de lésions de la moelle épinière et leur ont implanté des électrodes dans le gyrus supramarginal (à vos souhaits), une région du cerveau impliquée dans la formation de la parole interne. Pendant 3 jours, les participants ont été entraînés à s’imaginer prononcer une série de six mots (champ de bataille, cow-boy, python, cuillère, natation et téléphone) et 2 termes absurdes (nifzig et bindip), pendant que leur activité cérébrale était enregistrée.

Ensuite, les données ont été intégrées à un modèle informatique qui a essayé de décoder et d’interpréter les signaux cérébraux des participants lorsqu’ils pensaient à ces mots. Et devinez quoi ? Ça a marché ! Le modèle a réussi à prédire la parole interne du premier sujet avec une précision de 79% et celle du deuxième avec une précision de 23%. Bon, ok, ce n’est pas parfait, mais c’est un début prometteur !

a) Diagramme de l’algorithme de décodage. Premièrement, l’activité neuronale (franchissements de seuils multi-unités et puissance de la bande de spikes) est segmentée temporellement et lissée sur chaque électrode. Deuxièmement, un RNN convertit une série temporelle de cette activité neuronale en une série temporelle de probabilités pour chaque phonème (plus la probabilité d’un jeton de « silence » entre les mots et d’un jeton « vide » associé à la procédure de formation de classification temporelle connexionniste). Le RNN est une architecture à cinq couches d’unités récurrentes à portes, entraînée avec TensorFlow 2. Enfin, les probabilités des phonèmes sont combinées avec un modèle linguistique à large vocabulaire (un modèle trigramme personnalisé de 125 000 mots implémenté dans Kaldi) pour décoder la phrase la plus probable. Les phonèmes dans ce diagramme sont notés en utilisant l’Alphabet Phonétique International.
b) Les cercles ouverts indiquent les taux d’erreur de mots pour deux modes de parole (vocalisé versus silencieux) et différentes tailles de vocabulaire (50 versus 125 000 mots). Les taux d’erreur de mots ont été agrégés sur 80 essais par jour pour le vocabulaire de 125 000 mots et 50 essais par jour pour le vocabulaire de 50 mots. Les lignes verticales indiquent les intervalles de confiance (IC) à 95 %.
c) Même chose que dans b, mais pour le taux de parole (mots par minute).
d) Un essai d’exemple en boucle fermée démontrant la capacité du RNN à décoder des séquences sensées de phonèmes (représentées en notation ARPABET) sans modèle linguistique. Les phonèmes sont décalés verticalement pour lisibilité, et ‘’ indique le jeton de silence (que le RNN a été entraîné à produire à la fin de tous les mots). La séquence de phonèmes a été générée en prenant les phonèmes à probabilité maximale à chaque étape temporelle. Notez que les erreurs de décodage de phonèmes sont souvent corrigées par le modèle linguistique, qui infère toujours le mot correct. Les phonèmes et mots incorrectement décodés sont indiqués en rouge.

Les chercheurs ont ainsi confirmé que le gyrus supramarginal joue un rôle clé dans la production de la parole interne. Mais il reste encore beaucoup à découvrir sur le fonctionnement de nos cerveaux dans ce domaine. On est encore loin de pouvoir utiliser cette technologie pour permettre à des personnes privées de communication, comme celles atteintes du syndrome d’enfermement, de s’exprimer efficacement. Mais ça ouvre déjà des perspectives médicales et technologiques impressionnantes ! 🚀

Bientôt, on pourra peut-être carrément faire communiquer nos cerveaux à distance grâce à ce genre d’interfaces ! Plus besoin de parler ou d’écrire, il suffira de penser très fort « Hé mec, tu me passes le sel ? » pour que votre ami vous envoie la salière par télépathie. Bon, j’exagère un peu, mais avouez que ça serait quand même super cool !

Et ce n’est qu’un début. Les chercheurs planchent déjà sur des améliorations de leur système. Ils espèrent notamment réussir à distinguer les lettres individuelles de l’alphabet. Une sorte de T9 cérébral pour écrire des SMS par la pensée, vous imaginez ?

Bien sûr, tout cela soulève aussi des questions éthiques sur la vie privée et le contrôle de nos pensées et aç signe probablement l’arrêt de mort prochain de votre couple ^^. Mais en attendant, on ne peut que s’émerveiller devant ces avancées qui nous rapprochent un peu plus de la science-fiction. Qui sait, peut-être qu’un jour, on n’aura même plus besoin de se parler pour se comprendre ?

Si vous voulez en savoir plus sur cette étude fascinante, je vous invite à consulter l’article original publié dans Nature Medicine 📖

Allez, maintenant je vais penser à un truc très fort dans ma tête et vous allez devoir le deviner…

**** gniiiiiii ****

Alors ? Bravo, vous avez trouvé !

Source

Megalopolis – La bande annonce de l’épopée cinématographique de Francis Ford Coppola

Megalopolis. Un nom qui résonne dans l’esprit des cinéphiles depuis plus de 40 ans. Le projet de rêve, l’œuvre totale, la quête ultime de Francis Ford Coppola, le légendaire réalisateur du Parrain et d’Apocalypse Now. Et après des décennies de préparation, des centaines de réécritures du script, des castings étoilés ayant défilé au fil des années, des tournages avortés et des financements introuvables, Megalopolis va enfin voir le jour.

La première mondiale aura lieu le 16 mai au Festival de Cannes et autant vous dire que l’attente et les attentes sont énormes.

Pour ceux qui l’auraient raté, Megalopolis est annoncé comme un film de science-fiction épique se déroulant dans un New York futuriste et décadent. L’histoire s’inspire librement de la conjuration de Catilina, une tentative de coup d’état dans la Rome antique. Rien que ça… et pour incarner cette fresque visionnaire, Coppola a rassemblé un casting cinq étoiles : Adam Driver, Nathalie Emmanuel, Laurence Fishburne, Giancarlo Esposito, Aubrey Plaza, Shia LaBeouf, Dustin Hoffman ou encore le vétéran Jon Voight.

Mais alors pourquoi on n’en a pas entendu parler plus tôt de ce film ?? Et bien la réponse tient en 3 mots : Francis Ford Coppola. Le bonhomme est tellement perfectionniste qu’il n’a rien voulu lâcher. Megalopolis, c’est son bébé, son précieux, son obsession depuis plus de 40 ans. Il a commencé à y penser pendant le tournage d’Apocalypse Now, vous vous rendez compte ?

Depuis, il n’a cessé de le développer, de l’écrire et le réécrire – on parle d’environ 300 versions du script, rien que ça !

Mais voilà, les studios ne suivaient pas, trouvant le projet trop risqué et trop cher pour un film de science-fiction sans licence donc Coppola a dû se débrouiller tout seul, quitte à vendre une partie de son domaine viticole pour financer lui-même les 100 millions de dollars de budget ! Une folie qui rappelle la production chaotique d’Apocalypse Now, pour ceux qui ont vu le passionnant documentaire Aux cœurs des ténèbres.

Et visiblement, même avec les moyens du bord, le tournage de Megalopolis n’a pas été de tout repos. On parle de retards, d’équipes d’effets spéciaux qui démissionnent, de méthodes old school incompatibles avec les techniques modernes. Il y a même un producteur qui aurait lâché cette petite phrase assassine : « On avait parfois l’impression que ce type n’avait jamais fait de film de sa vie ! » Ouch.

Heureusement, ce bon vieux Francis a plus d’un tour dans son sac et il a su s’entourer d’une équipe de choc. À commencer par son fils Roman, véritable prodige des effets visuels, qui a travaillé sans relâche pour donner vie à la vision de son père.

Et puis il y a le casting, bien sûr, qui semble avoir adhéré au projet corps et âme. Adam Driver en tête, qui campe l’idéaliste architecte César, sorte de Jedi urbain capable d’arrêter le temps ! Un Driver qu’on n’est pas prêt de désinstaller… euh d’oublier, si vous voulez mon avis… Surtout quand on voit les images époustouflantes de la bande annonce : des statues qui bougent, une cité néo-romaine hallucinée, des scènes de club ultra-stylisées façon Studio 54. Coppola nous promet le spectacle d’une vie.

Certains commentaires ont été moins enthousiastes après des projections privées, certains parlant de « film de dingue pompeux ». Mais en même temps, vous vous attendiez à quoi du mec qui a fait Le Parrain ou Apocalypse Now qui avait été conspué par la critique avant de rafler la Palme d’or !

Ce genre de folie artistique, ça force quand même le respect. Et puis ce casting, ces thèmes visionnaires sur la technologie, la politique, l’urbanisme et la nature humaine, je suis sûr que ça va donner un truc de fou même si ça peut aussi partir en vrille totale façon Dune de David Lynch. Bref, le quitte ou double d’un artiste qui n’a plus rien à prouver. Et vu le CV de FF Coppola, ce serait vraiment dommage de ne pas lui laisser une chance de nous en mettre plein la vue.

Bref, le rendez-vous est pris le 16 mai sur la Croisette (mais pas pour moi, j’ai du boulot). Megalopolis est déjà le film le plus attendu du Festival de Cannes, et sans doute de l’année. Et même si la critique le descend en flammes, il est déjà entré dans la légende : Le film qu’un génie a passé sa vie à essayer de faire, une œuvre testamentaire, son cadeau au monde, qu’il dédie à sa femme Eleanor, décédée juste avant la fin du tournage :'(.

Du coup, je ne sais pas pour vous, mais moi, j’ai hâte de découvrir ce mystérieux Megalopolis, en espérant qu’on n’aura pas à attendre 10 ans de plus pour le voir, comme Apocalypse Now à l’époque !

Sur ce, ciao et merci Lorenper 😉

Source

L’IA générative au service de l’édition de gènes

Vous avez sans doute entendu parler de CRISPR-Cas9 (non), cet outil d’édition génétique révolutionnaire qui permet de modifier l’ADN avec une précision chirurgicale. Et bien, figurez-vous que cette technologie déjà impressionnante pourrait être boostée par une autre innovation majeure : l’IA générative !

Attention, on est sur du lourd. En gros, l’idée c’est d’utiliser la puissance des algorithmes d’IA pour prédire les meilleurs « guides ARN » qui vont diriger les ciseaux moléculaires de CRISPR pile poil où il faut sur le génome. Plus besoin de faire de nombreux tests, il suffit de demander à votre IA favorite de vous générer le guide ARN parfait !

Mais à quoi ça va servir tout ça ?

Déjà, ça pourrait bien révolutionner la recherche biomédicale. Imaginez qu’on puisse modeler des lignées cellulaires ou des organismes modèles avec les mutations souhaitées rapidement, le gain de temps serait considérable ! Surtout que l’IA ne va pas juste prédire l’efficacité des guides ARN, mais aussi les potentiels effets secondaires. Parce que c’est bien beau de jouer avec le code de la vie, mais il faut éviter les conséquences indésirables… Là, l’IA va pouvoir modéliser les modifications « off-target » et réduire les risques.

Et à terme, ça ouvre des perspectives intéressantes pour la médecine personnalisée. Des thérapies géniques sur-mesure, où il suffirait de séquencer votre ADN, le fournir à une IA qui va déterminer le traitement CRISPR optimal, et hop, traiter des maladies génétiques ! Bon après, il faudra encore travailler sur les vecteurs pour acheminer ça dans les bonnes cellules…

Cela dit, on n’en est pas encore là, et il y a quand même des défis importants à relever. Déjà, éthiquement ça soulève des questions. Est-ce qu’on est prêts à laisser une IA influencer le génome humain ? Et il va falloir un cadre réglementaire solide et beaucoup de transparence pour éviter les dérives… Et puis techniquement, c’est loin d’être gagné ! Les interactions génétiques sont très complexes, avec de nombreux phénomènes comme l’épistasie et la pléiotropie. Pas sûr que les IA arrivent à modéliser un système aussi compliqué, même avec du deep learning poussé… Sans compter les contraintes pour synthétiser les guides ARN.

Mais bon, c’est le genre de défi stimulant non ? Si des IA peuvent générer des images bluffantes ou écrire du code, pourquoi pas des modifications génétiques ? En tout cas, une chose est sûre, la convergence de l’IA et des biotechs promet des avancées passionnantes.

Alors oui, certains diront que tout ceci relève encore de la spéculation, voire de la science-fiction. Que l’édition génétique est trop complexe pour être entièrement automatisée, même avec l’aide de l’IA. Que les risques de dérives sont trop grands et qu’il faut appliquer le principe de précaution. Ce sont des arguments à prendre en compte. Mais bon, on a dit pareil pour la fécondation in vitro, les OGM, les thérapies géniques…

À chaque fois, on nous dit que c’est contre-nature, que ça va avoir des conséquences désastreuses, et au final ça finit par entrer dans les mœurs et faire progresser la médecine. Alors sur l’IA et CRISPR, voyons jusqu’où ça nous mène, tout en étant vigilants sur les enjeux éthiques. Parce qu’on parle quand même de technologies avec un potentiel énorme pour soigner des maladies et améliorer notre compréhension du vivant. Ce serait dommage de tout bloquer.

Maintenant, si vous voulez en savoir plus sur la révolution CRISPR-IA, je vous invite à lire cet excellent article du New York Times.

Peut être une solution pour réduire les acouphènes ?

Ah les acouphènes, cette bande-son de l’enfer qui nous pourrit la vie ! Perso, j’ai parfois un sifflement strident qui me vrille les tympans et pas de bouton « mute » pour le stopper. Alors ça va, ça m’arrive assez rarement mais si vous faites partie des 8 millions de français à subir ce calvaire, j’ai une bonne nouvelle pour vous.

Figurez-vous que la FDA (l’équivalent américain de notre bon vieille ANSM) a donné son feu vert à un appareil révolutionnaire : le Lenire.

OK, le nom fait un peu penser à un Pokemon, mais ce truc au look tout droit d’un film de science-fiction des années 80 dispose d’un embout buccal bardé d’électrodes en acier inoxydable que vous placez dans votre bouche et qui va littéralement vous envoyer de l’électricité dans la langue !

Wow wow wow, on se calme, c’est pas la chaise électrique non plus hein ^^.

En fait, ça envoie des mini stimulations pour « chatouiller » votre langue, comme si une armée de petites fourmis faisait la fiesta sur votre muscle lingual. Pendant ce temps-là, vous avez un casque sur les oreilles qui diffuse des sons aussi apaisants que le ressac sur une plage de sable blanc et le combo fait que les acouphènes se réduisent. Dans une étude clinique portant sur 326 patients, 84% des participants ont constaté une amélioration significative après 12 semaines d’utilisation du Lenire. C’est quand même un sacré bond en avant quand on sait qu’avant, y avait pas grand chose pour soulager les gens.

Alors comment ça fonctionne ?

Et bien en gros, votre cerveau, c’est comme un projecteur qui est toujours braqué sur ce qui est important. Quand vous avez des acouphènes, c’est comme si le projecteur était bloqué sur le bruit parasite en mode « alerte rouge, défcon 1, on va tous mourir !« . Du coup, impossible de penser à autre chose, ça vous pourrit le ciboulot. Eh ben figurez-vous que cet appareil, c’est le copain qui viendrait vous secouer en mode « hey, regarde plutôt ça, c’est carrément plus intéressant !« . En stimulant votre langue et vos oreilles simultanément, il force donc votre cerveau à changer de focus. Résultat, votre projecteur mental n’est plus obnubilé par les acouphènes !

Après, c’est pas donné… comptez dans les 4000 balles pour vous offrir cette petite merveille. Mais pour les gens qui ont les oreilles qui sifflent à longueur de journée, on est prêt à tout pour retrouver un peu de répit, même à vendre un rein au marché noir (non, je déconne, faites pas !). Après y’a surement moyen de faire un équivalent DIY avec une pile et un casque à réduction de bruit, j’sais pas…

Bref, y’a de l’espoir pour tous les acouphéniques en galère et c’est ce que je voulais partager avec vous aujourd’hui ;-).

Source

❌