Artificial Intelligence (AI) is here. Once mostly the domain of cautionary science fiction and tech enthusiasts, AI systems have taken off and become mainstream seemingly overnight. Discussions surrounding AI have existed for well over half a century, when noted Computer Scientist Alan Turing tried to define the scope of what would make a computer “intelligent” by developing the Turing Test. What is clear is that the new wave of AI systems has an impact on serious issues like privacy and data collection, surveillance, intellectual property, national security, disinformation, and more, but regulations haven’t caught up with the speed in which the technology is moving.
Individuals and businesses have been adapting to AI quickly. A recent KPMG Canada survey of businesses notes that 37 percent of companies are looking at how to use AI chatbot systems (such as ChatGPT, which launched only six months ago) to improve their operations. A similar percentage, 35 percent, say they currently use AI in their operations. 40 percent of those using AI are using them in their call centres. Canadian universities are struggling with crafting new AI policies to combat plagiarism and cheating by students using AI chatbots to write essays. Last month, a song that sounds remarkably like Canadian rapper Drake called Heart on my Sleeve was developed using AI, prompting streaming services to remove it after it received hundreds of thousands of downloads. Even the Minister of Immigration, Citizenship and Refugees has stated that his department has been using AI to speed up immigration processing times, although he was quick to state that they are not used for application approvals.
AI certainly has its advantages. It can help speed up work processes. It can help perform complicated tasks that would require a comparably large amount of manpower, such as complex data analysis. It can reduce human error. A good example would be a meteorologist using AI systems to examine weather patterns and getting a more accurate picture of forecasts than we are generally used to in the profession. AI systems may, in the near future, assist people with cognitive or language disabilities to better communicate. There is a wealth of applications for AI that can actually be a significant benefit for society.
However, AI is a new wild frontier that has already been ethically concerning. Artists have already been sounding the alarm of having their works recreated in a different manner using AI. The example using the Heart on my Sleeve song noted earlier was taken down from streaming services because it was in contravention of the copyright of the artists, but this is from one of the world’s best-selling artists who has the resources to fight it. Small artists don’t have those resources to fight back if AI emulates their work. Deepfakes, which use AI to emulate people’s voices and mannerisms, have the ability to upend our political systems by pushing false statements on social media that political leaders may have never said. This is to say nothing of inherent algorithmic biases, which has already been a huge problem with major companies launching chatbots that have made racist or anti-Semitic statements, at times unprompted.
Canada, like almost every other nation, is behind on developing regulation for the use of AI. Last summer, the government tabled Bill C-27, the Digital Charter Implementation Act, which is a first major attempt to implement an Artificial Intelligence and Data Act. However, this bill is already out of date, as even though the bill was first tabled a year ago, it predates the rise of most consumer-ready AI systems like ChatGPT and is more focused on appropriate use and deployment of AI in the private sector. It will help develop that framework, and those guiding principles, but even members of the Industry and Science Committee have stated that it may not be enough. It has been suggested that AI may require its own special joint House and Senate committee to call expert witnesses to help guide public policy.
AI is a proverbial Brave New World, one we must get out in front of. We need guidelines for the responsible and ethical use of AI, and as the technology continues to advance, so too must our scrutiny.
Nous devons réglementer l’intelligence artificielle pour rattraper notre retard
L’intelligence artificielle (IA) est arrivée. Autrefois cantonnés au domaine de la science-fiction, qui en faisait la mise en garde, et au cercle des passionnés de technologie, les systèmes d’IA ont pris leur essor et se sont imposés du jour au lendemain L’IA fait l’objet de discussions depuis plus d’un demi-siècle; le célèbre informaticien Alan Turing avait tenté de définir ce qui rendrait un ordinateur « intelligent » en mettant au point le test de Turing. Une chose est sûre : la nouvelle vague de systèmes d’IA a une incidence sur des questions importantes telles que la protection de la vie privée et la collecte de données, la surveillance, la propriété intellectuelle, la sécurité nationale, la désinformation et bien d’autres encore, mais la réglementation ne suit pas le rythme auquel la technologie évolue.
Les citoyens et les entreprises s’adaptent rapidement à l’IA. Selon un sondage mené récemment par KPMG Canada, 37 % des entreprises cherchent à utiliser des robots conversationnels dotés d’une IA (tels que ChatGPT, lancé il y a seulement six mois) pour améliorer leurs activités. Un pourcentage similaire, soit 35 %, déclare recourir actuellement à l’IA dans le cadre de leurs activités. Quarante pour cent des entreprises qui utilisent l’IA le font dans leurs centres d’appels. Les universités canadiennes s’efforcent d’élaborer de nouvelles politiques en matière d’IA pour lutter contre le plagiat et la tricherie chez les étudiants, qui utilisent des robots conversationnels dotés d’une IA pour rédiger leurs travaux. Le mois dernier, une chanson ressemblant étrangement à celles du rappeur canadien Drake, intitulée Heart on my Sleeve, a été créée à l’aide de l’IA, ce qui a contraint les services de diffusion en continu à la supprimer, mais seulement après qu’elle a été téléchargée des centaines de milliers de fois. Même le ministre de l’Immigration, de la Citoyenneté et des Réfugiés a déclaré que le Ministère utilisait l’IA pour accélérer le traitement des demandes d’immigration, tout en s’empressant de préciser qu’il ne le faisait pas pour approuver les demandes.
L’IA présente certes des avantages. Elle peut contribuer à accélérer les processus de travail. Elle peut aider à effectuer des tâches compliquées qui nécessiteraient beaucoup de main-d’œuvre, comme l’analyse de données complexes. Elle permet aussi de réduire les erreurs humaines. Par exemple, un météorologue utilisant des systèmes d’IA pour examiner les régimes climatiques établirait des prévisions plus précises que celles auxquelles nous sommes généralement habitués. Les systèmes d’IA pourraient, dans un avenir proche, aider les personnes souffrant de troubles cognitifs ou linguistiques à mieux communiquer. Il existe une multitude d’applications fondées sur l’IA qui peuvent réellement représenter un avantage significatif pour la société.
Cependant, l’IA représente une nouvelle frontière et pose déjà des problèmes d’ordre éthique. Les artistes ont déjà tiré la sonnette d’alarme quant à la possibilité de voir leurs œuvres reproduites d’une manière différente grâce à l’IA. Par exemple, la chanson Heart on my Sleeve, mentionnée ci-dessus, a été retirée des services de diffusion en continu parce qu’elle contrevenait aux droits d’auteur de l’artiste, mais il s’agit ici de l’un des artistes qui vend le plus de disques dans le monde et qui a les moyens de se défendre. Les petits artistes, eux, n’ont pas les moyens de se défendre si l’IA copie leur travail. L’hypertrucage, une technique qui, grâce à l’IA, reproduit la voix et la gestuelle des gens, a la capacité de bouleverser nos systèmes politiques en diffusant sur les médias sociaux de fausses déclarations que les dirigeants politiques n’ont peut-être jamais prononcées. Cela est sans compter les biais algorithmiques inhérents, qui posent déjà d’énormes problèmes aux grandes entreprises ayant lancé des robots conversationnels, car ceux-ci font des déclarations racistes ou antisémites, parfois même sans y être invités.
Le Canada, comme presque tous les autres pays, accuse du retard dans l’adoption d’une réglementation sur l’utilisation de l’IA. L’été dernier, le gouvernement a déposé le projet de loi C-27, Loi de 2022 sur la mise en œuvre de la Charte du numérique, qui constitue la première grande tentative pour mettre en œuvre une loi sur l’intelligence artificielle et les données. Or, le projet de loi est déjà dépassé, car même s’il a été présenté pour la première fois il y a un an, il est antérieur à l’apparition de la plupart des systèmes d’IA prêts à être utilisés par les consommateurs, tels que ChatGPT, et il est davantage axé sur l’utilisation et le déploiement appropriés de l’IA dans le secteur privé. Il contribuera certes à l’élaboration de ce cadre et de ces principes directeurs, mais même les membres du comité de l’industrie et de la science ont déclaré qu’il pourrait ne pas suffire. Il a été proposé que l’on crée un comité mixte spécial de la Chambre et du Sénat, qui ferait appel à des témoins experts pour l’aider à orienter la politique publique sur l’IA.
L’IA est un nouveau monde proverbial, un monde auquel nous devons faire face. Nous avons besoin de lignes directrices sur son utilisation responsable et éthique, et à mesure que la technologie continue de progresser, notre examen doit lui aussi progresser.