L’intelligence artificielle n’est plus un simple outil technique aux capacités limitées ; elle s’impose désormais comme une force cognitive transdisciplinaire capable de redéfinir les frontières de l’esprit humain. Si elle a déjà démontré sa supériorité dans des domaines comme les échecs ou l’analyse de données, ses avancées rapides dans des disciplines complexes comme la virologie suscitent aujourd’hui de profondes interrogations sur son avenir et ses implications potentielles. Car derrière les exploits, émergent des inquiétudes existentielles nécessitant une réflexion collective approfondie.
Dans ce contexte, une nouvelle étude révèle que les modèles d’intelligence artificielle de dernière génération commencent à surpasser les performances humaines dans la résolution de problèmes de laboratoire avancés. Le modèle « o3 » d’OpenAI a ainsi surpassé des scientifiques titulaires de doctorats dans des tests spécifiquement conçus pour évaluer les compétences en détection et correction d’erreurs dans les protocoles biologiques. De son côté, le modèle « Gemini 2.5 Pro » de Google a obtenu un score de 37,6 %, contre une moyenne de seulement 22,1 % pour les chercheurs humains.
Si ces résultats peuvent représenter une avancée majeure dans la lutte contre les pandémies et l’accélération de l’innovation médicale, ils soulèvent également de sérieuses préoccupations, notamment lorsque ces technologies tombent entre des mains non expertes.
Seth Donahue, chercheur à l’organisation SecureBio, a exprimé son inquiétude quant à la possibilité que ces modèles soient utilisés comme guides techniques pour développer des armes biologiques, soulignant que l’intelligence artificielle ne distingue pas les intentions des utilisateurs et fournit l’information sans évaluation éthique.
Certaines entreprises d’IA, telles qu’OpenAI et xAI, ont commencé à mettre en place des mesures de précaution pour limiter ces risques. D’autres, comme Anthropic, se sont contentées d’inclure l’étude sans annoncer de plans concrets, tandis que Google a refusé de commenter les résultats publiés exclusivement dans le magazine Time, alimentant encore davantage les inquiétudes sur l’engagement réel à respecter les principes éthiques dans le développement de ces modèles.
L’intérêt pour la virologie n’est pas anodin : ce domaine a toujours été l’un des moteurs de l’IA. Sam Altman, PDG d’OpenAI, a déclaré que cette technologie pourrait révolutionner la vitesse de traitement des maladies.
Un signal encourageant vient d’une équipe de chercheurs de l’université de Floride, qui ont développé un algorithme capable de prédire les mutations du virus du Covid-19, renforçant l’espoir d’utiliser l’IA pour protéger la santé publique.
Cependant, l’absence d’études approfondies sur les capacités réelles des modèles à effectuer des tâches de laboratoire restait un manque notable. C’est pourquoi l’équipe de recherche a conçu des tests pointus simulant des problèmes difficilement résolvables par de simples recherches en ligne, avec des questions nécessitant une analyse poussée d’expériences de laboratoire concrètes.
Les questions étaient formulées de manière pratique, par exemple : « Je cultive ce virus dans un certain type de cellules dans des conditions précises. Un problème est survenu. Pouvez-vous identifier l’erreur la plus probable ? »
Ces tests n’avaient pas pour but de remettre en cause les compétences des scientifiques, mais d’évaluer la pertinence de l’IA en tant qu’outil d’assistance ou de remplacement potentiel. Si certains voient dans ces avancées une lueur d’espoir, d’autres tirent la sonnette d’alarme, surtout face à la montée en puissance de modèles ouverts qui pourraient faciliter l’accès à des connaissances sensibles sans contrôle adéquat.
Ainsi, l’avenir de l’intelligence artificielle dans le domaine de la virologie oscille entre deux extrêmes : devenir une bouée de sauvetage pour l’humanité, ou une menace sans précédent — à moins qu’un progrès équivalent en conscience, en responsabilité et en législation mondiale ne l’accompagne.