
Keywords
generative AI, ChatGPT, large language models, foundation models, linguistic harm, environmental costs
Abstract
The rapid rise of generative AI represents a palpable paradigm shift: models like GPT-3 (and its subsequent iterations), DALL-E, and AlphaCode are becoming foundation models for many other AI-based applications. Foundation models may be used for many different tasks with minimal modification and are positioned to replace task-specific models of AI. This holds tremendous promise in society such as advancing scientific research, rethinking education and training, and creating new types of art and expression. At the same time, however, generative AI has its dark side such as accuracy risk, the threat of large-scale unemployment, potential security vulnerabilities, and AI misbehaviour such sexism, racism, and other bias. In response, governments around the world are working diligently to address potential harms stemming from this next generation AI. This is in addition to the alreadydeveloping regulatory landscape on the use of AI, which, depending on the jurisdiction, takes either a prescriptive legislative approach or a principles-focused tactic. While some aspects of these approaches may be relevant for foundation models, it is not clear how much responsibility will fall to foundation model providers as opposed to applications or even end-users. Drawing on Benedict Kingsbury’s recent work on ‘‘thinking infrastructurally” in the context of international law, this article will explore how thinking infrastructurally might help in the development of law and policy and also the ethics of AI with the emergence of foundation models, specifically focusing on ChatGPT.
L’essor rapide de l’IA générative représente un changement de paradigme palpable : des modèles comme GPT-3 (et ses itérations ultérieures), DALL-E et AlphaCode deviennent des modèles de base pour de nombreuses autres applications basées sur l’IA. Les modèles de base peuvent être utilisés pour de nombreuses tâches différentes avec un minimum de modifications et sont positionnés pour remplacer les modèles d’IA spécifiques à des tâches. Cela est extrêmement prometteur pour la société, notamment en faisant progresser la recherche scientifique, en repensant l’éducation et la formation, et en créant de nouveaux types d’art et d’expression. Dans le même temps, cependant, l’IA générative présente ses côtés sombres, tels que le risque d’inexactitude, la menace d’un chômage à grande échelle, les vulnérabilités potentielles en matière de sécurité, et les mauvais comportements de l’IA tels que le sexisme, le racisme et d’autres préjugés. En réponse, les gouvernements du monde entier travaillent avec diligence pour remédier aux dommages potentiels découlant de cette IA de nouvelle génération. Cela s’ajoute au paysage réglementaire déjà en développement sur l’utilisation de l’IA, qui, selon la juridiction, adopte soit une approche législative prescriptive, soit une tactique axée sur les principes. Bien que certains aspects de ces approches puissent être pertinents pour les modèles de base, il n’est pas clair dans quelle mesure la responsabilité incombera aux fournisseurs de modèles de base par rapport aux applications ou même aux utilisateurs finaux. S’appuyant sur les travaux récents de Benedict Kingsbury sur la « pensée infrastructurelle » dans le contexte du droit international, cet article explorera comment la pensée infrastructurelle pourrait contribuer au développement du droit, des politiques et de l’éthique de l’IA avec l’émergence des modèles de fondation, en se concentrant spécifiquement sur ChatGPT.
Recommended Citation
Amanda Turnbull, "The Framework is the Message: Legal and Ethical Implications of ChatGPT" (2024) 22:1 CJLT 1.