Nous contacter
N’hésitez pas à nous contacter pour échanger et voir comment Myriad Consulting peut optimiser et sécuriser vos opportunités de financement R&D.
Contactez-nousEntrée en vigueur depuis août, cette réglementation adopte une approche basée sur le risque de ces systèmes pour les citoyens. Une réglementation fortement attendue.
La fin de l'année 2022 a marqué une étape décisive dans la popularisation de l'intelligence artificielle.
Le 30 novembre, OpenAI – une entreprise connue pour son travail innovant dans le domaine des systèmes informatiques et des algorithmes imitant les fonctions intellectuelles humaines – a introduit ChatGPT. Ce chatbot a rencontré un succès fulgurant, rassemblant plus d'un million d'utilisateurs en seulement quatre jours, d'après les informations de l'entreprise californienne.
Un peu plus d'un an et demi plus tard, le 1er août dernier, le Règlement européen sur l’intelligence artificielle a pris effet. Curieusement, Bruxelles avait commencé à élaborer ce cadre juridique bien avant que ChatGPT ne joue un rôle de catalyseur majeur dans le domaine. Formulée par la Commission Européenne en avril 2021 et ratifiée par le Parlement Européen et le Conseil en décembre 2023, cette régulation vise à minimiser les risques que l’IA peut poser pour la santé, la sécurité et les droits fondamentaux des citoyens européens.
Ce règlement impose également des obligations et des exigences précises pour les développeurs et les utilisateurs d'IA, en fonction des applications spécifiques. Le but est de créer un cadre robuste qui pourrait servir de modèle à l’échelle mondiale. Voici les éléments clés d’une régulation ambitieuse, conçue pour devenir une référence en matière de gouvernance de l'intelligence artificielle.
L'intelligence artificielle (IA) en tant que concept est définie par le Règlement européen comme un programme fonctionnant de manière autonome, sans nécessiter une intervention humaine constante.
Ces systèmes exploitent des données, qu'elles proviennent de personnes ou de machines, pour déduire comment atteindre des objectifs prédéfinis. Ils utilisent pour cela des techniques d'apprentissage automatique ou des méthodes basées sur la logique et la connaissance. En conséquence, ces systèmes génèrent des contenus, des prévisions, des recommandations ou prennent des décisions qui peuvent influencer l'environnement dans lequel ils opèrent.
Le Règlement européen sur l'intelligence artificielle s'applique à tous les fournisseurs qui commercialisent ou utilisent des systèmes d'IA au sein de l'Union Européenne, indépendamment de leur localisation géographique.
Il concerne également les fournisseurs et utilisateurs de systèmes provenant de pays tiers, du moment que les résultats de ces systèmes sont utilisés dans l'UE. En outre, le règlement s'applique aux utilisateurs physiquement présents ou établis dans l'UE, ainsi qu'aux représentants autorisés, importateurs et distributeurs des systèmes d'IA.
Une approche graduée en fonction du niveau de risque
Le Règlement européen sur l’intelligence artificielle adopte une approche basée sur le risque, ce qui signifie que les normes et exigences deviennent plus strictes en fonction de l'évaluation du niveau de risque associé à chaque système d'IA.
La majorité des systèmes d’intelligence artificielle sont considérés comme présentant un risque minime. Ces systèmes peuvent être utilisés sans exigences supplémentaires, à condition de respecter les législations en vigueur.
Des exemples incluent les jeux vidéo et les filtres anti-spam pour les e-mails. Bien que cela ne soit pas obligatoire, les fournisseurs de ces systèmes peuvent choisir de suivre les principes de l’intelligence artificielle fiable et se conformer à des codes de conduite volontaires.
Pour renforcer la confiance dans l'IA, le règlement impose des exigences de transparence spécifiques pour certaines applications présentant un risque particulier de manipulation. C'est le cas des robots conversationnels et des deepfakes. Il est crucial que les utilisateurs soient informés qu’ils interagissent avec une machine pour éviter toute confusion ou tromperie.
Les systèmes d’intelligence artificielle jugés à risque élevé sont ceux susceptibles de nuire à la sécurité des personnes ou de porter atteinte à leurs droits fondamentaux. Cela inclut, par exemple, les systèmes utilisés pour décider de l’admissibilité à un traitement médical, à un emploi ou à un prêt immobilier.
Sont également concernés les systèmes utilisés par les forces de l’ordre pour créer des profils ou évaluer le risque criminel, ainsi que ceux contrôlant des robots, des drones ou des dispositifs médicaux. Ces systèmes devront satisfaire à des exigences strictes et obtenir des autorisations pour être commercialisés dans l’UE.
Certains usages de l’intelligence artificielle sont jugés tellement préjudiciables qu’ils sont interdits par le règlement, car ils contreviennent aux valeurs de l'UE et portent atteinte aux droits fondamentaux des citoyens. Les activités interdites incluent :
- La manipulation des individus en exploitant leurs vulnérabilités.
- L’utilisation de techniques subliminales.
- Le scoring social à des fins publiques ou privées.
- La police prédictive basée uniquement sur des profils.
- La collecte massive d’images faciales pour créer des bases de données via Internet ou des caméras de sécurité.
- La reconnaissance des émotions au travail ou dans les écoles, sauf pour des raisons médicales ou de sécurité.
- La catégorisation biométrique pour déduire des données sensibles comme la race ou l’orientation sexuelle.
- L’identification biométrique à distance en temps réel dans les espaces publics par la police, sauf dans des cas exceptionnels.
En somme, l'approche basée sur le risque adoptée par le Règlement européen sur l’intelligence artificielle vise à équilibrer l'innovation technologique avec la protection des droits fondamentaux et la sécurité publique, en adaptant les exigences réglementaires en fonction du niveau de risque inhérent à chaque application de l’IA.
Le Règlement européen sur l'intelligence artificielle accorde une importance particulière à la prévention des biais raciaux et de genre au sein des systèmes d’IA. Pour répondre à cette exigence, les systèmes doivent se conformer à des normes strictes garantissant leur robustesse technique et évitant des résultats biaisés qui nuisent de manière disproportionnée aux groupes marginalisés.
Les systèmes d'IA doivent être formés avec des données représentatives et doivent intégrer des mécanismes capables de détecter et de corriger toute forme d'inégalité. En outre, ils doivent être traçables et auditables, ce qui implique la conservation de toutes les documentations pertinentes, y compris les données de formation de l’algorithme. Cette approche facilite les enquêtes et assure une surveillance continue pour maintenir l’équité et la transparence.
Mise en œuvre et sanctions
Le Règlement européen sur l'intelligence artificielle propose un cadre de gouvernance à deux niveaux pour son application. Au niveau national, les autorités locales sont chargées de surveiller le respect des normes dans chaque pays. Au niveau européen, l’UE réglemente les modèles d’usage général.
Pour coordonner cette double surveillance, un Comité Européen de l’Intelligence Artificielle sera mis en place, soutenu par l’Agence Européenne de l’Intelligence Artificielle. Cette agence fournira des orientations stratégiques et assurera la cohérence et la coopération entre les différents acteurs.
En cas de non-conformité, des sanctions sévères sont prévues, ajustées en fonction de la gravité des infractions :
- Pour les infractions graves liées aux exigences en matière de données : jusqu'à 35 millions d’euros ou 7 % du chiffre d’affaires mondial de l'entreprise.
- Pour le non-respect d’autres obligations : jusqu'à 15 millions d’euros ou 3 % du chiffre d'affaires mondial.
- Pour la fourniture d’informations incorrectes, incomplètes ou trompeuses aux autorités : jusqu'à 7,5 millions d’euros ou 1,5 % du chiffre d’affaires mondial.
Ces sanctions seront modulées en fonction de la taille de l’entreprise. Pour les petites et moyennes entreprises (PME), le montant inférieur des seuils sera appliqué, tandis que pour les grandes entreprises, ce sera le montant supérieur.
Votre demande d'allègement fiscal pour la R&D a attiré l'attention du ministère correspondant ? Pas de panique !
Les enquêtes du ministère sur les demandes d'allègement fiscal en matière de R&D sont en augmentation. Notre équipe hautement qualifiée vous apportera le plus grand soutien possible afin d'obtenir une solution avantageuse pour votre demande de R&D auprès du ministère correspondant, de sorte que vous puissiez avoir l'esprit tranquille, sachant que votre entreprise est entre de bonnes mains.
Nous sommes bien équipés pour offrir des conseils pratiques sur toutes les demandes d'allègement fiscal en matière de R&D faites par le ministère correspondant, ainsi que pour fournir des examens proactifs qui peuvent aider à assurer une tranquillité d'esprit totale en ces temps d'incertitude.
Si vous avez été contacté par le ministère au sujet de votre demande de crédit d'impôt R&D, ou si vous souhaitez simplement en savoir plus, n'hésitez pas à nous contacter en utilisant notre formulaire de contact ou en appelant notre équipe sympathique au 01 89 20 27 90.
Vous innovez et vous demandez si vous pouvez prétendre au statut JEI ? On vous explique.
Vous avez entendu parler de l'acronyme CIR, autrement Crédit Impôt Recherche, mais ne savez pas ce que c'est ? On vous explique tout de A à Z.
Vous envisagez de mener des projets de R&D ? On fait le point.
N’hésitez pas à nous contacter pour échanger et voir comment Myriad Consulting peut optimiser et sécuriser vos opportunités de financement R&D.
Contactez-nous