OpenAI compose une unité spéciale pour prévenir les dangers de l’IA

Table des matières

À différentes échelles, les recours à l’IA par des personnes malintentionnées pourraient occasionner des effets catastrophiques pour le genre humain. Des craintes allant des risques nucléaires jusqu’aux variantes radiobiologiques ou chimiques sont notamment envisagées. Afin de s’y préparer, OpenAI s’est doté d’une équipe idoine nommée Preparedness, qui explorera des thématiques très variées.

Le développement de l’intelligence artificielle (IA) suscite de plus en plus d’inquiétudes sur divers plans. Conscient de ces craintes, OpenAI a créé Preparedness. Un groupe d’étude consacrée à la prévision des dangers qu’une utilisation malveillante de l’IA est susceptible d’engendrer. L’unité est en ce sens dédiée à surveiller, estimer et générer des mesures de protection contre des risques.

Afin d’externaliser la recherche y afférent, l’entreprise derrière ChatGPT a conçu dans la foulée AI Preparedness Challenge. Il s’agit d’un concours auquel toute personne intéressée, consultant informatique ou non, peut participer jusqu’au 31 décembre 2023. Pour déposer sa candidature, il faudra transmettre des idées à Preparedness par l’intermédiaire d’un formulaire en ligne.

Des crédits API pour les plus inventifs

Les dix propositions les plus pertinentes seront retenues au terme de la compétition. La firme américaine promet des crédits API d’une valeur de 25 000 dollars pour chacun des lauréats. Ils peuvent même éventuellement se voir offrir des contrats de travail au sein de l’équipe nouvellement formée. Les consultants informatiques à la recherche d’emploi sont, pour cette raison, incités à relever le défi.

Concrètement, OpenAI soumettra les participants à un cas fictif selon lequel ils disposent des ressources les plus puissantes d’IA générative. La société détaille qu’ils auront pour mission de penser à :

«  L’utilisation abusive du modèle la plus unique, qui soit probable et potentiellement catastrophique ».

Les candidats doivent décrire explicitement leurs idées dans des protocoles expérimentaux. Par ailleurs, l’éditeur de ChatGPT leur demande de concevoir des solutions permettant de réduire ces risques.

Beaucoup de travail attend l’unité Preparedness. Elle a été instaurée pour mettre en place et entretenir une stratégie de développement prenant en considération les risques. OpenAI indique que ce plan détaillera sa vision :

  • Du jaugeage et du suivi méticuleux des capacités des systèmes avant-gardistes ;
  • De l’élaboration d’une panoplie de mesures de protection ;
  • De l’établissement d’un organe de gouvernance pour la supervision et la responsabilité de ce processus de développement.

Une crainte particulière concernant l’ARA

La nouvelle équipe d’OpenAI étudiera les risques de l’IA sous des angles très diversifiés. La start-up cite par exemple l’ARA (reproduction et adaptation autonomes). Cet acronyme renvoi à l’aptitude des outils d’IA d’acquérir une autonomie sur certains points. Du fait de cette faculté, le pouvoir de contrôle de leurs inventeurs humains sur eux diminue. Ces systèmes seraient ainsi en mesure de :

  • Produire eux-mêmes des revenus ;
  • Exploiter ces gains pour soutenir leur développement ;
  • S’adapter de manière ininterrompue afin de passer au travers des obstacles extérieurs conçus pour les intercepter.

Preparedness travaillera aussi sur la sécurité informatique et la persuasion individualisée. Pour cause, la prolifération d’instruments d’IA générative a favorisé le perfectionnement des campagnes de hameçonnage. Elle a en outre rendu plus facile l’usurpation d’identité. OpenAI expose également des inquiétudes plus graves telles que les menaces :

  • Nucléaires ;
  • Radiologiques ;
  • Biologiques ;
  •  

L’entreprise se tait cependant concernant le rôle de l’IA et les actions à adopter pour s’en prémunir.

Aleksander Madry, chef du Center for Deployable Machine Learning (CDML) à l’Institut de Technology du Massachusetts (MIT), dirigera l’équipe Preparedness. OpenAI s’abstient d’indiquer combien de personnes y évolueront. La jeune pousse a seulement mis en ligne deux offres d’emploi. Elles portent sur un poste d’ingénieur de recherche et de chercheur en menaces pour la sécurité nationale.

Cet article vous a-t-il été utile ?

Note moyenne 0 / 5. Nombre de votes 0

Actualité du portage salarial