Le débat sur la question de savoir si les systèmes d’IA peuvent être considérés comme des inventeurs n’est qu’un exemple des défis à venir.
L’intelligence artificielle transforme des secteurs comme la santé, la finance et la technologie. Pourtant, la protection des innovations en matière d’IA, en particulier des algorithmes, reste un défi juridique. Cet article explore les principaux obstacles juridiques au brevetage des algorithmes d’IA et examine les récents litiges qui façonnent l’avenir de la propriété intellectuelle dans ce domaine.
Comprendre pourquoi les algorithmes sont difficiles à breveter
Les algorithmes, qui pilotent la plupart des systèmes d’IA en traitant des données et en effectuant des tâches, sont souvent considérés comme des idées abstraites en droit des brevets, ce qui les rend difficiles à protéger. Dans l’affaire Alice Corp. contre CLS Bank International de 2014, la Cour suprême des États-Unis a statué que les idées abstraites, telles que les algorithmes ou les pratiques commerciales de base, ne sont pas brevetables à moins qu’elles ne soient appliquées d’une manière concrète et innovante qui va au-delà du concept abstrait lui-même. .
L’affaire s’est produite lorsqu’Alice Corporation a tenté de breveter une méthode informatisée de gestion des transactions financières, et la Cour a jugé que la méthode était trop abstraite pour pouvoir bénéficier d’un brevet, créant ainsi un précédent pour des cas similaires.
Puisque de nombreux algorithmes sont essentiellement des instructions mathématiques, ils entrent dans cette catégorie. Il est donc difficile pour les innovateurs en IA de satisfaire aux exigences des brevets en matière de nouveauté, de non-évidence et d’éligibilité, ce qui limite leur capacité à protéger leurs inventions.
Brevetage d’algorithmes d’IA dans différentes régions
Les normes juridiques relatives au brevetage des innovations en matière d’IA diffèrent selon les régions. Aux États-Unis, l’arrêt Alice a conduit au rejet de nombreuses demandes de brevet en matière d’IA. Les algorithmes ne répondent souvent pas à l’exigence de montrer une application technologique concrète, ce qui frustre de nombreuses personnes dans le domaine du développement de l’IA.
En Europe, l’Office européen des brevets (OEB) dispose d’une norme plus flexible. L’OEB autorise le brevetage d’algorithmes s’ils résolvent un problème technique ou produisent un « effet technique ». Par exemple, un algorithme utilisé dans une voiture autonome peut être brevetable, alors qu’un système d’IA à usage plus général pourrait ne pas l’être. Cette approche fait de l’Europe un endroit plus favorable pour les innovateurs en IA cherchant des brevets.
La Chine, en revanche, s’est montrée encore plus disposée à accorder des brevets sur l’IA. Dans le cadre de sa stratégie plus large visant à devenir un leader dans le domaine de l’IA, l’Office chinois des brevets se montre plus flexible en ce qui concerne les applications liées à l’IA, autorisant des brevets qui pourraient ne pas être accordés aux États-Unis ou en Europe. Cette variation des normes mondiales en matière de brevets crée une incertitude pour les innovateurs en IA qui tentent de protéger leur travail sur différents marchés.
Les récents litiges juridiques façonnent le droit des brevets en matière d’IA
Plusieurs affaires juridiques mettent en évidence les défis persistants entre l’innovation en matière d’IA et les lois actuelles sur la propriété intellectuelle. L’une des affaires clés est Thaler c. Contrôleur général des brevets, impliquant un système d’IA appelé DABUS, créé par Stephen Thaler.
Thaler a tenté de répertorier DABUS comme inventeur dans les demandes de brevet déposées dans divers pays, notamment aux États-Unis et au Royaume-Uni. Les tribunaux ont statué que seuls les inventeurs humains pouvaient être répertoriés, rejetant l’idée selon laquelle l’IA pouvait être considérée comme un inventeur. Cette affaire a suscité un débat sur le rôle de l’IA dans le système des brevets et sur la question de savoir si les lois sur les brevets devraient s’adapter pour reconnaître les inventeurs non humains.
Stratégies pour protéger les innovations en matière d’IA
Compte tenu des difficultés liées au brevetage des algorithmes, les innovateurs en IA doivent explorer d’autres stratégies pour protéger leur travail. Une approche consiste à se concentrer sur le brevetage des applications spécifiques d’un algorithme plutôt que sur l’algorithme lui-même. Si un algorithme résout un problème technique dans un domaine comme la santé ou les véhicules autonomes, il a plus de chances d’être breveté.
Une autre option consiste à s’appuyer sur des secrets commerciaux. De nombreuses entreprises choisissent de préserver la confidentialité de leurs algorithmes d’IA, en recourant à des accords de non-divulgation et à des mesures de sécurité internes. Même si les secrets commerciaux n’offrent pas le même niveau de protection juridique que les brevets, ils peuvent s’avérer efficaces, notamment pour les algorithmes difficiles à reproduire.
Une stratégie hybride peut également fonctionner. Certaines entreprises brevetent des applications spécifiques tout en gardant secrets les algorithmes sous-jacents. Cela leur permet d’obtenir une protection juridique sans révéler la technologie de base derrière leur innovation.
L’avenir du droit des brevets en matière d’IA
À mesure que la technologie de l’IA se développe, le droit des brevets devra évoluer. Le débat sur la question de savoir si les systèmes d’IA peuvent être considérés comme des inventeurs n’est qu’un exemple des défis à venir. De plus, la concurrence mondiale pourrait entraîner des changements juridiques alors que des régions spécifiques cherchent à attirer les innovateurs en IA.
Pour l’instant, le défi demeure : si l’IA est le moteur du progrès technologique, ses algorithmes sont difficiles à breveter en vertu des lois actuelles. Les innovateurs en IA doivent rester informés du paysage juridique et envisager d’autres moyens de protéger leurs technologies.