With generative AI’s ability to aid knowledge management, increase efficiency and accelerate development there must be balanced consideration of intellectual property (IP) protection and stakeholder interests.
Generative Artificial Intelligence (Gen AI) are algorithms that can be used to generate text and images that are difficult to distinguish from human generated text and images. It is technology that is fed data (trained) to ultimately recognize relationships and patterns in data. The more data the system is fed, the smarter it becomes. Once trained, it then applies that intelligence to information submitted by end users, to produce new content/products such as videos, photos, and book summaries. Generative AI’s use is growing in popularity because it quickly simplifies and completes tasks for the everyday user once given simple instructions.
Some of the more popular platforms are Open AI’s ChatGPT, DALL-E and DALL-E 2.
ChatGPT (Chat Generative Pre-trained Transformer), is a large language model-based chatbot. DALL-E and DALL-E 2 are text-to-image models developed by OpenAI, these platforms use deep learning methodologies to generate digital images.
Given the relatively easy access to these platforms, the use of generative AI continues to grow. According to a recent survey by MIT Technology Review, roughly four out of five business leaders (79%) anticipate their employees will make use of generative AI in completing tasks. Of the business leaders who said they were not currently prepared to adopt generative AI technology, a little over a third (35%) expressed there was a lack of appropriate security, privacy, and trust guardrails in place.[1]
In light of generative AI’s increasing popularity, Canadian companies focused on furthering innovation should consider issues around content creation and attribution, coupled with legal and ethical concerns when exploring the potential of generative AI platforms to accelerate development.
As more AI generated content and products are brought to market, companies will likely wrestle with how to best address today’s disruptive environment with employees, investors, business partners and customers. In addressing risks, communication with stakeholders should also entail consultation with legal counsel, where appropriate. This bulletin focuses on the prospective legal implications of increased generative AI adoption across industries. Highlighted here are four key questions to reflect on when using generative AI platforms while navigating intellectual property and commercial considerations.
- How does your Business plan to use generative AI platforms?
A business’ day-to-day use is likely to determine what governs platform utilization within the company and what policies may apply, whether that be a privacy policy, an acceptable use policy or a confidentiality policy. For instance, if you engage a generative AI platform provider and create work product using this platform, but the AI platform provider is not subject to any confidentiality obligations, if sensitive personal data is disclosed through the platform, your business may not have recourse against the AI platform provider. Furthermore, the business itself may be exposed to liability for disclosing personal data to a third-party without sufficient safeguards. - Will your Business be taking any steps to monitor the quality of AI generated content?
Reliability is critical in most industries, however finance and healthcare are particularly sensitive areas, and so what may be strategically expedient may also be legally complicated. Given that there are now documented instances of generative AI producing “hallucinations,”[2] which are essentially incorrect responses asserted as fact, measured implementation of generative AI platforms is likely a sound approach. However, upon implementation, processes around output evaluation and monitoring should be put in place to ensure content / product reliability, validity, and quality. Businesses should also ensure that policies encouraging responsible AI use and periodic platform testing, are timely and comprehensive given the likelihood of future regulatory scrutiny. - IP risks while using generative IP platforms
If a company has concerns about intellectual property or safeguarding trade secrets, while retaining a competitive advantage, it is imperative that employees are made aware that submitting proprietary or seemingly benign information into a generative AI platform, may lead to disclosure to the public including competitors. Though terms of use may vary between each platform and user packages offered on AI platforms, the generative AI provider may have the contractual right to use, create or publish content derived from inputs (prompts) provided by the end user to create new works. Consequently, depending on the type of AI platform at issue and its function, IP owners alleging infringement are likely to face legal ambiguity and arbitrary outcomes. Guardrails a company may consider are 1) limiting/restricting the use of generative AI platforms and 2) consider updating employment policies or issuing guidance obligating employees to comply with AI use policies. - Is your Business preparing to follow regulations related to generative AI?
Innovation, Science and Economic Development Canada (ISED) has released draft elements of a code of practice for generative AI systems, though specific regulatory guidelines on Artificial Intelligence through the Artificial Intelligence and Data Act (AIDA) are currently pending, the proposed generative AI standards below provide a framework that a pragmatic business leader should consider.
Safety
Safety must be considered holistically throughout the system’s lifecycle, with a broad view of potential impacts, particularly regarding misuse.
Fairness and Equity
It will be essential to ensure that models are trained on appropriate and representative data, and provide relevant, accurate, and unbiased outputs.
Transparency
It is important to ensure that individuals realize when they are interacting with an AI system or with AI-generated content.
Human Oversight and Monitoring
Human oversight and monitoring of AI systems are critical to ensure that these systems are developed, deployed, and used safely.
Validity and Robustness
Ensuring that AI systems work as intended and are resilient across the range of contexts.
Accountability
Developers, deployers, and operators of generative AI systems would ensure that multiple lines of defence are in place to secure the safety of their system.
These are high-level details of elements of the code, the second part of this series will provide a comprehensive analysis of the code and its interaction with the Artificial Intelligence and Data Act (AIDA).
Generative AI is here, to minimize disruption business leaders should consider future regulatory and economic implications and plan on implementing reasonable policies.
[1] https://www.technologyreview.com/2023/07/25/1076532/generative-ai-is-empowering-the-digital-workforce/
[2] https://www.ncbi.nlm.nih.gov/pmc/articles/PMC9939079/
Réglementation, IA générative et considérations juridiques
La capacité de l’IA générative à faciliter la gestion des connaissances, à accroître l’efficacité et à accélérer le développement doit être accompagnée d’une prise en compte équilibrée de la protection de la propriété intellectuelle (PI) et des intérêts des parties prenantes.
L’IA générative est constituée d’algorithmes pouvant être utilisés pour générer des textes et des images difficiles à distinguer des textes et des images générés par l’humain. Il s’agit d’une technologie qui est alimentée en données (entraînée à partir de données) afin de reconnaître les relations et les modèles dans les données. Plus le système est alimenté en données, plus il devient intelligent. Après avoir été entraîné, le système applique ces renseignements à l’information soumise par les utilisateurs finaux pour produire de nouveaux contenus et produits, par exemple des vidéos, des photos et des résumés de livres. L’IA générative gagne en popularité parce qu’elle simplifie et accomplit rapidement des tâches pour l’utilisateur lambda après avoir reçu des instructions simples.
Parmi les plateformes les plus populaires figurent ChatGPT, DALL-E et DALL-E 2 d’OpenAI.
ChatGPT est un robot conversationnel basé sur un grand modèle de langage de type transformeur génératif préentraîné (GPT signifie Generative Pre-trained Transformer). DALL-E et DALL-E 2 sont des modèles de conversion de texte en image développés par OpenAI : ces plateformes utilisent des modes d’apprentissage profond afin de générer des images numériques.
Étant donné l’accès relativement facile à ces plateformes, l’utilisation de l’IA générative ne cesse de croître. Selon un récent sondage du MIT Technology Review, environ quatre dirigeants d’entreprise sur cinq (79 %) prévoient que leurs employés utiliseront l’IA générative pour accomplir leurs tâches. Parmi les dirigeants d’entreprise qui ont mentionné ne pas être prêts à adopter de technologie d’IA générative pour le moment, un peu plus du tiers (35 %) ont indiqué qu’il n’existait pas de garde-fous appropriés pour assurer la sécurité, la protection de la vie privée et la fiabilité[1].
À la lumière de la popularité croissante de l’IA générative, les entreprises canadiennes qui souhaitent favoriser l’innovation devraient tenir compte des questions relatives à la création et à l’attribution de contenu, ainsi que des préoccupations d’ordre juridique et éthique lorsqu’elles explorent le potentiel des plateformes d’IA générative en vue d’accélérer leur développement.
À mesure que le contenu et les produits générés par l’IA seront mis sur le marché, les entreprises devront certainement se demander quelle est la meilleure façon d’aborder les technologies de rupture actuelles avec les employés, les investisseurs, les partenaires commerciaux et les clients. Dans le cadre de la gestion des risques, la communication avec les parties prenantes doit également prévoir la consultation d’un conseiller juridique, si nécessaire. Le présent bulletin porte sur les répercussions juridiques possibles d’une adoption accrue de l’IA générative dans tous les secteurs d’activité. Voici quatre questions clés auxquelles il importe de réfléchir lorsqu’on utilise des plateformes d’IA générative dans le contexte de la propriété intellectuelle et de considérations commerciales.
- Comment votre entreprise prévoit-elle utiliser les plateformes d’IA générative?
L’utilisation quotidienne d’une entreprise est susceptible de déterminer ce qui régit l’utilisation de la plateforme au sein de l’entreprise et quelles politiques peuvent s’appliquer, qu’il s’agisse d’une politique de confidentialité, d’une politique d’utilisation acceptable ou d’une politique de protection des renseignements personnels. Par exemple, vous retenez les services d’un fournisseur de plateforme d’IA générative et vous créez un produit à l’aide de cette plateforme, mais le fournisseur de cette dernière n’est assujetti à aucune obligation de confidentialité : si des données personnelles sensibles sont divulguées via la plateforme, votre entreprise pourrait ne pas avoir de recours contre le fournisseur. De plus, l’entreprise elle-même pourrait être tenue responsable d’avoir divulgué des données personnelles à un tiers sans mesures de protection suffisantes. - Votre entreprise prendra-t-elle des mesures pour surveiller la qualité du contenu généré par l’IA?
La fiabilité est essentielle dans la plupart des secteurs d’activité, mais les secteurs des finances et des soins de santé sont particulièrement sensibles. Par conséquent, ce qui peut sembler stratégiquement opportun peut aussi s’avérer juridiquement complexe. Étant donné qu’il existe maintenant des cas documentés d’IA générative produisant des « hallucinations », lesquelles sont essentiellement des réponses erronées présentées comme des faits, le déploiement contrôlé de plateformes d’IA générative est probablement une approche judicieuse[2]. Des processus d’évaluation et de surveillance des extrants devraient toutefois être mis en place avant l’implantation en vue d’assurer la fiabilité, la validité et la qualité du contenu et des produits. Les entreprises doivent également veiller à ce que les politiques encourageant l’utilisation responsable de l’IA et les tests périodiques de la plateforme soient réalisés en temps opportun et de façon détaillée, compte tenu de la probabilité d’un examen réglementaire futur. - Quels sont les risques liés à la propriété intellectuelle lorsque vous utilisez des plateformes d’IA générative?
Si, tout en souhaitant conserver un avantage concurrentiel, une entreprise a des préoccupations concernant la propriété intellectuelle ou la protection de secrets commerciaux, il est impératif que ses employés soient avertis que le fait de saisir des renseignements confidentiels ou inoffensifs en apparence sur une plateforme d’IA générative peut conduire à une divulgation de ces renseignements au public, y compris aux concurrents de l’entreprise. Bien que les conditions d’utilisation puissent varier selon la plateforme et les offres proposées aux utilisateurs sur les plateformes d’IA, le fournisseur d’IA générative peut disposer du droit contractuel d’utiliser, de créer ou de publier du contenu dérivé des entrées (invites) fournies par l’utilisateur final afin de créer de nouvelles œuvres. Par conséquent, selon le type de plateforme d’IA en cause et sa fonction, les propriétaires de PI qui allèguent une contrefaçon risquent d’être confrontés à une situation juridiquement ambiguë et à des résultats arbitraires. Les garde-fous pouvant être considérés par les entreprises sont les suivants : 1) limiter ou restreindre l’utilisation des plateformes d’IA générative et 2) envisager de mettre à jour les politiques d’emploi ou de publier des directives obligeant les employés à se conformer aux politiques d’utilisation de l’IA. - Votre entreprise se prépare-t-elle à respecter la réglementation relative à l’IA générative?
Innovation, Science et Développement économique Canada (ISDE) a publié un projet de code de pratique pour les systèmes d’IA générative, et bien que des lignes directrices réglementaires précises sur l’intelligence artificielle en vertu de la Loi sur l’intelligence artificielle et les données (LIAD) soient en instance, les normes proposées sur l’IA générative ci-dessous fournissent un cadre qu’un dirigeant d’entreprise pragmatique devrait envisager.
Sécurité
La sécurité doit être envisagée de manière globale tout au long du cycle de vie du système d’IA, suivant une perspective d’ensemble des impacts potentiels, notamment en ce qui concerne les utilisations abusives.
Justice et équité
Il sera essentiel de veiller à ce que les modèles soient formés sur des données appropriées et représentatives, et qu’ils fournissent des résultats pertinents, précis et impartiaux.
Transparence
Il est important de veiller à ce que les individus se rendent compte qu’ils interagissent avec un système d’IA ou avec un contenu généré par l’IA.
Supervision et surveillance par les humains
La supervision et la surveillance des systèmes d’IA par les humains sont essentielles pour garantir que ces systèmes soient développés, déployés et utilisés en toute sécurité.
Validité et robustesse
Il est essentiel de s’assurer que les systèmes d’IA fonctionnent comme prévu et qu’ils sont résistants dans l’ensemble des contextes.
Responsabilité
Les développeurs, les diffuseurs et les opérateurs de systèmes d’IA générative devraient veiller à ce que de multiples lignes de défense soient en place pour garantir la sécurité de leur système.
Il s’agit de détails généraux sur des éléments contenus dans le code. La deuxième partie de cette série de bulletins présentera une analyse complète du code et de son interaction avec la Loi sur l’intelligence artificielle et les données.
L’IA générative est bel et bien parmi nous. Pour limiter le plus possible les perturbations, les dirigeants d’entreprise doivent tenir compte des futures implications réglementaires et économiques et prévoir la mise en place de politiques raisonnables.
[1] https://www.technologyreview.com/2023/07/25/1076532/generative-ai-is-empowering-the-digital-workforce/
[2] https://www.ncbi.nlm.nih.gov/pmc/articles/PMC9939079/