Les modèles d’IA peuvent désormais être évalués avec la plateforme d’AI Safety Institute

Table des matières

L’AI Safety Institute du Royaume-Uni a lancé récemment un outil conçu pour évaluer les modèles d’IA. Portant le nom d’« Inspect », c’est la première plateforme de test en licence open source dédiée à l’IA. Son rôle est d’évaluer les capacités spécifiques (raisonnement, connaissances, autonomie, etc.) des modèles d’intelligence artificielle.

Les avancées du Royaume-Uni dans l’adoption de mesures éthiques et de sécurité autour de l’intelligence artificielle se sont accélérées depuis peu. En effet, le principal organisme britannique en matière de sécurité de l’IA, AI Safety Institute a lancé Inspect. Ce dernier est une bibliothèque logicielle conçue pour aider les testeurs et les organismes à évaluer un modèle d’IA. Dans les faits, la plateforme a pour mission de tester en amont et en aval les nouveaux IA afin de réduire les risques qui y sont liés. Ce projet a déjà d’ailleurs été annoncé par le gouvernement britannique en novembre dernier.

Une plateforme révolutionnaire complète pour les tests de sécurité IA

Aujourd’hui, la grande majorité des sociétés sont de plus en plus intéressées par l’IA. En effet, une société de portage salarial comme CEGELEM, par exemple, utilise cette technologie pour automatiser certains services. Étant très utilisée, l’IA doit par conséquent être correctement évaluée via un outil complet.

La principale caractéristique d’Inspect réside dans sa capacité à être doté de plusieurs composants afin d’expertiser les modèles, à l’instar du prompt engineering et des évaluations par scores. Un élément également important est que le cadre d’Inspect peut être amélioré en incorporant des packages Python externes, augmentant ainsi son efficacité et son utilité.

La plateforme d’AI Safety Institute prend en charge plusieurs créateurs de modèles notamment :

  • OpenAI ;
  • Google ;
  • Microsoft ;
  • Hugging Face.

Les modules sont organisés pour permettre un processus de test systématique incluant les données multimodales. Ainsi, la plateforme peut prendre en charge un large éventail d’archétypes d’IA tels que Claude 3, GPT4 ou même MM1. Les IA hébergées sur Cloudflare, AWS, Bedrock ou Azure AI sont aussi prises en compte par Inspect.

Des outils en open source pour se placer sur le marché de l’IA

Le fait que la plateforme soit open source a pour but de favoriser une culture collaborative. Pour un développeur indépendant dans une société de portage salarial comme CEGELEM, un tel outil est le moyen de prendre contact avec une communauté d’experts dans le domaine.

Inspect doit, de ce fait, aider à apporter une approche commune aux tests de sécurité de l’IA, en surmontant les divisions géographiques et organisationnelles. Selon le président d’AI Safety Intitute :

« L’un des défis structurels de l’IA est la nécessité d’une coordination au-delà des frontières et des institutions. C’est peut-être une vérité qui dérange, mais les logiciels open source sont actuellement l’un des moyens par lesquels l’Amérique et la Chine “travaillent ensemble” dans la recherche sur l’IA… ».

Pour le Royaume-Uni, Inspect est aussi un moyen de bien se positionner sur le marché de l’IA. Il est à noter que le gouvernement britannique est aussi, à l’heure actuelle, concentré sur la mise en place d’un nouveau projet. Ce dernier réunit des spécialistes de l’IA dans le développement d’autres outils open source pour sécuriser les IA.

Cet article vous a-t-il été utile ?

Note moyenne 0 / 5. Nombre de votes 0

Actualité du portage salarial