Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Gmail-Linked Credentials Exposed in Massive Breach

Par : Kezia Jungco
28 octobre 2025 à 13:20

A dataset of 183 million credentials surfaced online, exposing users and raising new security concerns for businesses. This includes many Gmail users.

The post Gmail-Linked Credentials Exposed in Massive Breach appeared first on TechRepublic.

Google Gemini Can Now Build Full Presentations From a Single Prompt

Par : Liz Ticong
28 octobre 2025 à 12:43

Gemini’s Canvas now auto-generates full slide decks from a prompt or uploaded source, with themes and images, and exports to Google Slides.

The post Google Gemini Can Now Build Full Presentations From a Single Prompt appeared first on TechRepublic.

Google’s Latest Quantum Experiment Moves from Hype to Proof

23 octobre 2025 à 17:22

Using a technique called Quantum Echoes, Google says its latest chip has delivered results that outperform traditional computers and can be mathematically checked for accuracy.

The post Google’s Latest Quantum Experiment Moves from Hype to Proof appeared first on TechRepublic.

Samsung Unveils First Android XR Mixed Reality Headset

Par : Kezia Jungco
23 octobre 2025 à 14:44

Samsung has unveiled the Galaxy XR, its first Android XR mixed reality headset powered by Snapdragon XR2+ Gen 2, 4K micro-OLED displays, and Google Gemini AI integration.

The post Samsung Unveils First Android XR Mixed Reality Headset appeared first on TechRepublic.

UK Regulator Confirms Apple and Google Hold ‘Strategic Market Status’

23 octobre 2025 à 11:57

Competition and Markets Authority’s classification grants it expanded authority to tackle potential competition issues across the nation’s app and mobile markets.

The post UK Regulator Confirms Apple and Google Hold ‘Strategic Market Status’ appeared first on TechRepublic.

Quantum Echoes - Fini le bullshit, l'informatique quantique devient enfin vérifiable !

Par : Korben
23 octobre 2025 à 09:48

Pendant 30 ans, les experts en informatique quantique vous demandaient de les croire sur parole du genre “Mon ordi quantique est 13 000 fois plus rapides que ton PC Windows XP…”. Mais bon, ils sont rigolo car c’était impossible à vérifier ce genre de conneries… M’enfin ça c’était jusqu’à présent car Google vient d’annoncer Quantum Echoes , et on va enfin savoir grâce à ce truc, ce que l’informatique quantique a vraiment dans le ventre.

Depuis 2019 et la fameuse “suprématie quantique” de Google , on était en fait coincé dans un paradoxe de confiance assez drôle. Google nous disait “regardez, on a résolu un problème qui prendrait 10 milliards de milliards d’années à un supercalculateur”. Bon ok, j’veux bien les croire mais comment on vérifie ? Bah justement, on pouvait pas ! C’est un peu comme les promesses des gouvernements, ça n’engage que les gros teubés qui y croient ^^.

Heureusement grâce à Quantum Echoes, c’est la fin de cette ère du “Faites-nous confiance” car pour la première fois dans l’histoire de l’informatique quantique, un algorithme peut être vérifié de manière reproductible . Vous lancez le calcul sur la puce Willow de Google, vous obtenez un résultat. Vous relancez, vous obtenez le même. Votre pote avec un ordi quantique similaire lance le même truc, et il obtient le même résultat. Ça semble basique, mais pour le quantique, c’est incroyable !!

Willow, la puce quantique de Google

L’algorithme en question s’appelle OTOC (Out-Of-Time-Order Correlator), et il fonctionne comme un écho ultra-sophistiqué. Vous envoyez un signal dans le système quantique, vous perturbez un qubit, puis vous inversez précisément l’évolution du signal pour écouter l’écho qui revient. Cet écho quantique se fait également amplifier par interférence constructive, un phénomène où les ondes quantiques s’additionnent et deviennent plus fortes. Du coup, ça permet d’obtenir une mesure d’une précision hallucinante.

En partenariat avec l’Université de Californie à Berkeley, Google a testé ça sur deux molécules, une de 15 atomes et une autre de 28 atomes et les résultats obtenus sur leur ordinateur quantique correspondaient exactement à ceux de la RMN (Résonance Magnétique Nucléaire) traditionnelle. Sauf que Quantum Echoes va 13 000 fois plus vite qu’un supercalculateur classique pour ce type de calcul.

En gros, ce qui aurait pris 3 ans sur une machine classique prend 2 heures sur un Willow.

Cette vitesse, c’est impressionnant mais ce qui change la donne dans cette annonce, c’est cette notion de vérifiabilité ! Bref, c’est fini le bullshit, maintenant la structure de systèmes quantiques (des molécules aux aimants en passant par les trous noirs) sera vérifiable et comparable.

Et les applications concrètes sont déjà plutôt bien identifiées : Découverte de médicaments, pour comprendre comment les molécules se lient à leurs cibles, la science des matériaux, pour caractériser la structure moléculaire de nouveaux polymères ou les composants de batteries, la fusion nucléaire…etc tout ce qui nécessite de modéliser des phénomènes quantiques avec une précision extrême !

Google compare ça à un “quantum-scope”, capable de mesurer des phénomènes naturels auparavant inobservables un peu comme l’ont été le télescope et le microscope qui nous ont donné accès à de nouveaux mondes invisibles. Le Quantum Echoes nous donne un accès ce monde quantique sauf que cette fois, on pourra vérifier que la réalité est identique à celle annoncée par les scientifiques.

Source

Google Extends Opal to More Countries After Surge of Creative AI Apps

Par : Liz Ticong
8 octobre 2025 à 11:50

Google rolls out Opal to 15 countries with faster performance, parallel workflows, and real-time debugging to put no-code AI app creation into more hands.

The post Google Extends Opal to More Countries After Surge of Creative AI Apps appeared first on TechRepublic.

CodeMender - L'IA de DeepMind qui patche vos failles de sécu toute seule

Par : Korben
7 octobre 2025 à 07:17

Je sais pas si vous avez vu ça hier mais Google DeepMind vient de sortir CodeMender , un agent IA qui repère et corrige automatiquement les failles de sécurité dans votre code. L’outil analyse les vulnérabilités, génère les patches, vérifie qu’ils cassent rien, et soumet le tout aux mainteneurs de projets open source.

D’après leurs premiers retours, en 6 mois, CodeMender a déjà upstreamé 72 correctifs de sécurité sur des projets qui comptent jusqu’à 4,5 millions de lignes de code.

Pour bien comprendre comment ça fonctionne, CodeMender fonctionne sur deux modes. Il y a le mode réactif qui patche instantanément les nouvelles vulnérabilités découvertes, avec de l’analyse de programme avancée et un système multi-agents qui évalue la correction sous tous les angles. Et le mode proactif qui réécrit le code existant pour utiliser des structures de données et des APIs plus sécurisées, en appliquant par exemple des annotations de compilateur comme -fbounds-safety qui ajoutent des vérifications de limites automatiques.

L’outil s’appuie sur Gemini Deep Think , l’un des modèles de raisonnement avancé de Google et CodeMender combine plusieurs techniques d’analyse : static analysis pour repérer les patterns suspects dans le code source, dynamic analysis pour observer le comportement à l’exécution, fuzzing pour balancer des inputs aléatoires et voir ce qui casse, differential testing pour comparer le code modifié avec l’original, et des solveurs SMT pour vérifier formellement certaines propriétés du code.

Le truc intéressant avec CodeMender, c’est le process de validation. L’agent utilise ce qu’ils appellent un “LLM judge” qui vérifie que le patch proposé ne casse pas les fonctionnalités existantes. Le système compare l’original et la version modifiée, détecte les différences, et valide que le changement corrige bien la vulnérabilité sans y introduire des régressions. Et si un problème est détecté, CodeMender s’auto-corrige et retente sa chance.

Par exemple, CodeMender a bossé sur la libwebp , une bibliothèque de compression d’images utilisée un peu partout. L’IA ainsi après analyse, appliqué des annotations -fbounds-safety sur certaines parties du code et quand ces annotations sont présentes, le compilateur ajoute alors automatiquement des vérifications de limites qui empêchent un attaquant d’exploiter un buffer overflow ou underflow pour exécuter du code arbitraire. Ce n’est donc pas juste un patch ponctuel, mais une vraie protection structurelle contre toute une classe de vulnérabilités.

Les 72 patches déjà soumis couvrent des projets open source variés, certains vraiment massifs avec plusieurs millions de lignes et les patches générés par CodeMender passent par une review humaine avant d’être définitivement validés. Pour le moment, les chercheurs de DeepMind contactent un à un les mainteneurs des projets pour leur proposer les correctifs mais l’objectif final c’est de sortir CodeMender sous la forme d’un outil utilisable par tous les dev.

Le process de validation de CodeMender vérifie quatre critères sur chaque patch : il doit corriger la cause racine de la vulnérabilité, être fonctionnellement correct, ne provoquer aucune régression dans les tests existants, et respecter les conventions de style du projet. C’est donc pas juste du patching bourrin, car l’outil essaie de générer du code qui s’intègre proprement dans la base existante.

Ce qui différencie CodeMender d’autres outils de static analysis classiques, c’est surtout l’autonomie complète. Des outils comme Coverity ou SonarQube sont très cools car ils détectent les vulnérabilités et vous disent où elles sont, mais c’est à vous de les corriger. Alors que CodeMender va jusqu’au bout : détection, génération du patch, validation, et soumission. Le système gère aussi la complexité de très gros projets, ce qui est pas donné à tous les outils d’analyse.

Bon, évidemment, pour l’instant Google commence prudemment mais comme je vous le disais, l’idée à terme, c’est que CodeMender tourne en continu sur vos repos, détecte les nouvelles CVE qui matchent avec votre code, génère les patches, et vous les propose directement dans vos PR. Un peu comme un Dependabot mais pour les failles de sécu…

J’ai hâte que ça sorte en public !

Source

Dreamer 4 - L'IA qui connait Minecraft sans jamais y avoir joué

Par : Korben
3 octobre 2025 à 07:20

Vous vous rappelez ce gamin chauve dans Matrix qui plie des cuillères avec son esprit ? Il balance OKLM au petit Neo que “La cuillère n’existe pas”…

Eh bien, les chercheurs de Google DeepMind viennent de créer une IA qui applique exactement ce principe à Minecraft. Dreamer 4 (c’est son nom) n’a jamais touché au jeu, jamais cliqué, jamais bougé, jamais miné… (comme moi quoi…). Mais par contre, elle a regardé d’autres jouer, s’est construit son propre Minecraft mental, et s’est entraînée dans son imagination. Du coup, cela fait d’elle la première IA à atteindre les diamants en mode offline pur. Plus de 20 000 actions maîtrisées sans jamais poser un doigt (virtuel) sur le clavier.

Minecraft n’existe pas” pourrait dire le petit chauve…

Bref, ce que Danijar Hafner et son équipe ont réussi à faire, c’est de créer ce qu’on appelle un “world model”… une simulation mentale du jeu. L’IA observe des vidéos de joueurs, comprend les règles implicites de l’univers, puis s’entraîne dans cette version simulée qu’elle s’est construite dans sa “tête”. Aucune interaction avec le vrai jeu. Juste de l’imagination pure.

Et le truc surprenant (et c’est pour ça que je vous en parle), c’est que ça marche mieux qu’avec les approches traditionnelles.

De base, les IA classiques apprennent par essai-erreur dans un environnement réel. Elles testent des milliers d’actions, se plantent, recommencent, ajustent. C’est long, c’est coûteux en calcul, et dans certains domaines comme la robotique, ça peut carrément casser du matériel.

Dreamer 4 contourne donc tout ça en apprenant dans sa simulation interne, un peu comme un sportif de haut niveau quand il visualise mentalement sa performance avant de la réaliser.

Au-delà du jeu, faut imaginer à termes des robots qui s’entraînent dans leur tête avant de manipuler des objets fragiles par exemple. Ou des NPCs dans les jeux vidéo qui apprennent de nouvelles stratégies sans grinder pendant des heures. Même des simulations médicales qui testent des traitements sans expérimentation animale ou humaine… Tout ça et plus encore devient possible avec cette approche.

Et pour info, j’ai demandé à mes enfants et ils m’ont bien confirmé que les diamants dans Minecraft, c’est pas de la tarte. Il faut enchaîner plus de 20 000 actions souris-clavier dans le bon ordre… couper du bois, fabriquer des outils, miner des ressources spécifiques, éviter les dangers, descendre dans les profondeurs. C’est l’un des objectifs les plus complexes du jeu, et Dreamer 4 y arrive sans jamais avoir interagi avec l’environnement réel.

Voilà, si ça vous intéresse, sachez que tout est détaillé dans ce document sur arXiv si vous voulez creuser. Mais l’idée principale est simple : Et si l’imagination était plus efficace que la mise pratique ? On dirait que c’est une sorte de loi de l’attraction appliquée aux machines…

Bref, pendant qu’on se demande si l’IA va nous piquer nos jobs, elle, elle apprend à faire des trucs sans y toucher…

Google Adds AI-Powered Ransomware Protection and Recovery to Drive for Desktop

Par : Megan Crouse
1 octobre 2025 à 17:32

This new ransomware detection is available in beta in Google Drive for desktop on Windows or macOS, with a general release expected by the end of the year.

The post Google Adds AI-Powered Ransomware Protection and Recovery to Drive for Desktop appeared first on TechRepublic.

Open-Source Android Apps at Risk Under Google’s New Decree

Par : Liz Ticong
30 septembre 2025 à 18:29

F-Droid says Google's developer registration rule could end its open-source app store and strand users. Google defends verification as a security step.

The post Open-Source Android Apps at Risk Under Google’s New Decree appeared first on TechRepublic.

OpenAI and Google DeepMind Outshine Students at World’s Top Coding Contest

Par : Liz Ticong
18 septembre 2025 à 17:33

OpenAI scored a flawless 12/12 and Google DeepMind struck gold at ICPC 2025, the world’s toughest programming contest for top university teams.

The post OpenAI and Google DeepMind Outshine Students at World’s Top Coding Contest appeared first on TechRepublic.

Google Targets UK With Massive Investment of Nearly $7 Billion

17 septembre 2025 à 13:14

Google has opened a new data center in Waltham Cross as a key part of its UK investment strategy. But it's not the only one investing in the region.

The post Google Targets UK With Massive Investment of Nearly $7 Billion appeared first on TechRepublic.

ChatGPT peut faire fuiter vos emails avec une simple invitation Google Calendar

Par : Korben
15 septembre 2025 à 07:08

Vous attaquez votre lundi matin, tranquillement avec votre petit café… vous ouvrez ChatGPT pour lui demander votre planning de la semaine et là, PAF (façon De Funès ^^), toute votre correspondance Gmail part directement chez un cybercriminel.

Ce serait fou non ? Et bien c’est exactement ce qu’un chercheur vient de démontrer et tout ça à cause d’une simple invitation Google Calendar.

Eito Miyamura, co-fondateur d’EdisonWatch , a lâché une bombe sur X le 12 septembre et sa démo est terrifiante. En gros, il simule un attaquant qui envoie une invitation Google Calendar vérolée, ensuite vous demandez innocemment à ChatGPT “Qu’est-ce que j’ai de prévu aujourd’hui ?”, et l’IA se transforme en espion qui fouille vos emails et les envoie au pirate. Vous n’avez même pas besoin de voir ou d’accepter l’invitation. Elle est là, dans votre calendrier, comme une bombe à retardement.

Et ça tombe mal niveau comm, car OpenAI vient tout juste d’intégrer le support complet du MCP (Model Context Protocol) dans ChatGPT. Cette technologie permet en effet à l’assistant de se connecter directement à Gmail, Google Calendar, SharePoint, Notion… Pratique pour la productivité, mais catastrophique pour la sécurité.

Cette attaque exploite ce qu’on appelle l’injection de prompt indirecte. Au lieu d’essayer de tromper ChatGPT directement, l’attaquant cache ses instructions malveillantes dans des données que l’IA est autorisée à lire. Dans ce cas précis, le texte d’un événement calendrier… Ensuite ChatGPT lit l’invitation, voit les instructions cachées, et les exécute docilement.

Selon les experts en sécurité qui se sont penchés sur le problème, le MCP n’a pas été conçu avec la sécurité en priorité. Les risques incluent donc les injections de prompt, les permissions d’outils vulnérables et les outils sosies qui peuvent remplacer silencieusement les outils de confiance.

Sympa, hein ?

D’ailleurs, ce n’est pas la première fois qu’on voit ce genre d’attaque puisqu’en août, des chercheurs avaient déjà démontré comment une invitation compromise pouvait manipuler Google Gemini pour contrôler des appareils domotiques et voler des informations. Le papier s’appelait joliment “Invitation Is All You Need”. Prophétique.

Vitalik Buterin lui-même a réagi à cette vulnérabilité. Il explique que compter aveuglément sur un seul système IA est trop fragile et facilement manipulable et je trouve que cette nouvelle exploitation de ChatGPT lui donne raison !

D’ailleurs, même avec les navigateurs IA, vous n’êtes pas tranquille. D’après cette autre découverte, vous pouvez littéralement vous faire vider votre compte bancaire en scrollant sur Reddit. En effet, des instructions malveillantes peuvent être cachées dans des commentaires sur des sites que l’attaquant ne contrôle même pas, ce qui peut entrainer votre navigateur IA à faire des choses que vous n’avez pas autorisé.

Bref, cette nouvelle vulnérabilité met en lumière un problème fondamental des LLM : ils ne savent pas faire la différence entre des instructions légitimes et des commandes malveillantes cachées dans du contenu. Car contrairement aux applications traditionnelles qui peuvent séparer les instructions développeur des inputs utilisateur, les LLM acceptent tout en langage naturel. Pour rester flexibles, ils doivent pouvoir répondre à des configurations infinies d’instructions et c’est cette flexibilité qui fait leur force… mais qui est également leur talon d’Achille.

Trail of Bits a même démontré une variante encore plus sournoise où des images spécialement forgées contiennent des prompts cachés. Invisibles en haute résolution, les instructions malveillantes apparaissent quand l’image est réduite par les algorithmes de prétraitement. L’IA lit alors le message et l’interprète comme une instruction légitime.

Ainsi, quand une IA suit des instructions malveillantes depuis du contenu web, les protections traditionnelles comme la same-origin policy ou CORS deviennent inutiles. L’IA opère avec tous vos privilèges sur toutes vos sessions authentifiées. Accès potentiel à vos comptes bancaires, systèmes d’entreprise, emails privés, stockage cloud… C’est vite le jackpot pour un attaquant.

Alors, comment se protéger ?

Hé bien Google recommande de changer les paramètres de Calendar pour que seules les invitations de contacts connus ou acceptées apparaissent. Cachez aussi les événements refusés et surtout, restez extrêmement prudent avec les intégrations tierces et les autorisations accordées…

Voilà, donc la prochaine fois que ChatGPT vous demandera l’autorisation d’accéder à votre Gmail, réfléchissez-y à deux fois car ça pourrait vous coûter bien plus cher qu’un peu de temps gagné.

Source

❌
❌