L'IA doit elle rester en "Open source", accessible à tous, ou pas ? Pourquoi est-ce important ?

La démocratisation de la technologie est au cœur du débat, mais la sécurité et le profit priment dans la dispute.
La démocratisation de la technologie est au cœur du débat, mais la sécurité et le profit priment dans la dispute. Tous droits réservés Canva
Tous droits réservés Canva
Par Pascale Davies
Partager cet articleDiscussion
Partager cet articleClose Button
Cet article a été initialement publié en anglais

Les régulateurs, les start-ups et les grandes entreprises technologiques sont divisés en deux camps dans le débat sur l'intelligence artificielle Open Source, accessible à tous, ou pas ?

PUBLICITÉ

La bataille entre les entreprises spécialisées dans l'intelligence artificielle générative (IA) est en cours, avec deux camps concurrents : les logiciels Open Source et les logiciels à source fermée.

La démocratisation de la technologie est au cœur du débat, mais la sécurité et le profit ont la priorité dans la bataille.

D'une manière générale, les logiciels Open Source sont ceux dont le code source est accessible à tous, dans le domaine public, pour être utilisé, modifié et distribué. Il encourage la créativité et l'innovation, car les développeurs peuvent s'appuyer sur des algorithmes d'IA et des modèles pré-entraînés pour modifier leurs propres produits et outils.

L'IA à source fermée, en revanche, signifie que le code source est réservé à un usage privé et ne peut pas être modifié ou développé par les utilisateurs. Seule l'entreprise qui en est propriétaire peut le faire. Mais le financement de ces entreprises à open source est plus facile, ce qui signifie qu'elles disposent d'un capital plus important pour innover.

La définition de ce qui fait d'une entreprise une entreprise Open Source n'est pas non plus très claire.

La définition de la technologie open source

L'Open Source Initiative (OSI) est responsable de la définition de la technologie open source.

Elle précise que "l'open source ne signifie pas seulement l'accès au code source" et qu'il doit répondre à dix critères, dont l'existence d'un moyen bien connu d'obtenir le code source à un coût raisonnable ou gratuitement, l'absence de discrimination et le fait que la licence ne limite pas les autres logiciels.

Mais il est rare que l'on se conforme à toutes les exigences de l'OSI et la plupart des entreprises de logiciels libres ne le sont que partiellement, comme le champion français de l'IA, "Mistral". Elle ouvre les poids de ses modèles - les paramètres numériques qui influencent les performances d'un modèle d'IA - mais pas les données ni le processus d'apprentissage.

La technologie pour tous

Les entreprises d'IA qui se disent ouvertes à la concurrence affirment qu'elles rendent la technologie plus accessible à tous.

"L'open source aide à démocratiser l'économie technologique", explique Alex Combessie, PDG de "Giskard", co-fondateur de l'entreprise française d'IA open source, à Euronews Next.

"Cela permet d'uniformiser les règles du jeu parce que si c'est open source, c'est gratuit, du moins en général. Cela signifie que les petits acteurs peuvent rivaliser avec les plus grands parce qu'ils ont accès aux produits gratuitement", affirme-t-il.

"C'est très important, surtout dans un monde dominé par les monopoles technologiques".

L'open source égalise également le champ politique, en permettant à quiconque d'auditer le code puisqu'il est visible pour les régulateurs, alors que dans le cas d'une source fermée, les détails ne sont pas transparents.

Préoccupations en matière de sécurité

Mais les entreprises d'IA à source fermée, telles que le fabricant de ChatGPT, "OpenAI" (malgré son nom), affirment que l'open source menace notre sécurité.

Le logo OpenAI apparaît sur un téléphone portable devant un écran d'ordinateur contenant des données binaires aléatoires, jeudi 9 mars 2023
Le logo OpenAI apparaît sur un téléphone portable devant un écran d'ordinateur contenant des données binaires aléatoires, jeudi 9 mars 2023Michael Dwyer/Copyright 2023 The AP.

"OpenAI" a été fondée à l'origine pour produire des systèmes d'IA en open source, mais la société a déclaré, en 2019, qu'il était trop dangereux de continuer à diffuser son modèle de langage GPT au public, car il ressemblait trop à la parole humaine et, s'il était placé entre de mauvaises mains, il pourrait générer des fake news de haute qualité.

Avec l'IA en source fermée, il existe également des politiques d'utilisation qui refusent poliment les demandes, telles que les instructions pour fabriquer une bombe ou concevoir un coronavirus plus mortel.

Techniquement, il est possible de "jailbreaker" la politique, c'est-à-dire de la pirater pour contourner les mesures de protection de l'IA. Mais ces vulnérabilités sont souvent rapidement corrigées.

Les systèmes d'IA Open Source auront très probablement des protections en place ou un guide d'utilisation responsable. Mais même s'ils essaient de lutter contre la discrimination ou le danger, une fois qu'une copie du modèle d'IA est accessible, quiconque la possède peut modifier lui-même les mesures de protection.

PUBLICITÉ

La publication par Meta de son grand modèle linguistique (LLM) open source Llama 2 en juillet de l'année dernière en est un excellent exemple.

Quelques jours plus tard, des personnes ont publié leurs propres versions non censurées de Llama 2, posant des questions sur la manière de fabriquer une bombe nucléaire, auxquelles le LLM pouvait répondre.

Une fois que quelqu'un publie une version "non censurée" d'un modèle d'IA, le fabricant de l'IA d'origine ne peut pratiquement plus rien faire, d'autant plus qu'elle a déjà été téléchargée par d'autres utilisateurs.

L'activité des grandes entreprises technologiques

En décembre, Meta et IBM ont lancé un groupe appelé "AI Alliance", ce qui les met en porte-à-faux avec les géants de l'informatique à source fermée que sont OpenAI, Google et Microsoft.

L'"AI Alliance" prône une approche de l'IA fondée sur la "science ouverte" et regroupe 74 entreprises, dont des start-ups, des grandes entreprises et des organisations à but non lucratif.

PUBLICITÉ
Les législateurs votent la loi sur l'intelligence artificielle mercredi 14 juin 2023 au Parlement européen à Strasbourg
Les législateurs votent la loi sur l'intelligence artificielle mercredi 14 juin 2023 au Parlement européen à StrasbourgJean-Francois Badias/Copyright 2023 The AP.

"Une approche ouverte, responsable et transparente de l'IA profite à tous, à l'industrie, au monde universitaire et à la société dans son ensemble", soutient Alessandro Curioni, IBM Fellow, vice-président pour l'Europe et l'Afrique et directeur d'IBM Research.

Interrogé sur la sécurité, il assure que l'idée derrière l'IA ouverte et transparente est de minimiser les craintes.

"L'IA ouverte, transparente et responsable contribuera à faire progresser la sécurité de l'IA, en veillant à ce que la communauté ouverte de développeurs et de chercheurs s'attaque aux risques de l'IA et les atténue avec les solutions les plus appropriées", indique-t-il à Euronews Next.

"Cela ne signifie pas que toutes les technologies doivent être ouvertes - et surtout, ouvert ne veut pas dire non gouverné. La gouvernance est tout aussi importante, qu'il s'agisse d'IA ouverte ou propriétaire", précise-t-il.

Le problème du financement

Si l'argument de l'open source veut que les développeurs puissent librement s'appuyer sur les modèles d'IA Open Source et repousser les limites, l'argent est bien sûr au cœur du débat.

PUBLICITÉ

Certains investisseurs peuvent être dissuadés par un modèle open source car ils se sentent plus à l'aise avec un protocole internet (IP) sécurisé.

"Une conversation avec un grand modèle linguistique en temps réel utilise également beaucoup de puissance de calcul et se connecte à des solutions informatiques en nuage, ce qui n'est pas vraiment bon marché", explique Theodore Chen, data scientist chez Deloitte.

"À l'heure actuelle, je constate que les investissements sont basés sur la monétisation. Les technologies les plus pointues ont donc besoin d'être financées", affirme-t-il à Euronews Next.

"La monétisation est également utilisée pour le développement, qui pourrait être utilisé pour construire des modèles plus précis, ce qui profite à l'ensemble de l'industrie pour aller de l'avant".

Mais l'évolution de la technologie peut aussi se faire avec des modèles open source, car les développeurs peuvent être créatifs et créer de nouvelles utilisations de l'IA.

PUBLICITÉ

"Si davantage de personnes ont accès aux matières premières qui leur permettent de faire des choses créatives et très intéressantes, nous pourrions voir les choses se répandre dans des directions que personne ne pourrait imaginer", assure Tiago Cardoso, chef de produit chez Hyland, à Euronews Next.

Réglementation

Le débat entre source ouverte et source fermée a été un point de friction pour les régulateurs en Europe et aux États-Unis, qui ont des points de vue opposés.

En Europe, la loi européenne sur l'IA devrait être approuvée par le Parlement en avril. Mais le texte en attente d'approbation stipule que la loi ne s'appliquera pas aux systèmes d'IA Open Source, à moins qu'ils ne soient interdits ou classés comme systèmes d'IA à haut risque.

C'est une bonne nouvelle pour la France et l'Allemagne qui, tout au long des négociations, ont fait pression pour protéger leurs jeunes entreprises à code source ouvert.

Pendant ce temps, aux États-Unis, le décret de grande envergure pris par le président, Joe Biden, à la fin de l'année dernière stipule que lorsque des modèles open source - qu'il appelle modèles de fondation à double usage - sont "publiés sur l'internet, il peut en résulter des avantages substantiels pour l'innovation, mais aussi des risques substantiels pour la sécurité, tels que la suppression des mesures de protection au sein du modèle".

PUBLICITÉ

Joe Biden a donné à la Secrétaire d'État au commerce, Gina Raimondo, jusqu'au mois de juillet pour s'entretenir avec des experts et formuler des recommandations.

Partager cet articleDiscussion

À découvrir également

Voici comment utiliser les nouveaux sites de recherche d'IA générative

L'IA peut-elle aider la police scientifique à trouver des similitudes dans les empreintes digitales ?

Les clés de l'intégration de l'intelligence artificielle dans le monde du travail