Hukuki boyutlarıyla Avrupa Birliği yapay zeka yasası bağlamında risk temelli yaklaşım

Loading...
Publication Logo

Date

2025

Journal Title

Journal ISSN

Volume Title

Publisher

Open Access Color

OpenAIRE Downloads

OpenAIRE Views

Research Projects

Journal Issue

Abstract

Yapay zeka teknolojisi artık günümüzde eğitim, sağlık, tarım, finans sektörü gibi birçok noktada ve kamu faaliyetlerinde çeşitli alanlarda kullanım alanına sahiptir. Bu teknoloji insan yaşamı üzerinde dönüştürücü etkisini her geçen gün arttırmaktadır. Bununla birlikte yapay zeka teknolojisinin kullanımı ekonomik ve sosyal faydaları beraberinde getirirken, bireyler ve toplumlar için potansiyel riskler ve olumsuz sonuçların dikkate alınması gerekmektedir. Yapay zeka sistemlerinin şeffaf olmayan doğası, bireylerin bu sistemler tarafından nasıl değerlendirildiklerini anlamalarını güçleştirirken; teknolojisin yaygınlaşması, yapay zekanın işleyişine dair belirsizlikler ve ortaya çıkan sonuçlarla ilgili etik ve hukuki kaygıları arttırmaktadır. Bu belirsizlik ve riskler temel haklar, güvenlik ve sağlık üzerinde olumsuz etkiler doğurmakla birlikte bireyleri otomatik karar verme sistemlerine karşı zayıf bir konuma itmektedir. Yapay zeka sistemlerinin güvene değer olduğunun ortaya konulması ve bireylerin temel haklarına zarar vermeyecek bir şekilde tasarlanması gerekmektedir. Bu çerçevede yapay zekanın fırsatları ile birlikte getirdiği zorluklar ve ihtilaflar bu teknolojinin düzenlenme ihtiyacını ortaya koymuş ve Avrupa Birliği tarafından yapay zekanın belirli çerçevede kurallara bağlanmasına yönelik Avrupa Birliği Yapay Zeka Yasası hazırlanmıştır. Bu bağlamda Yapay Zeka Yasası atılan ilk kapsamlı adımdır. Yasa yapay zeka teknolojilerine risk temelli bir yaklaşım izleyerek risk kategorilerine ayırarak düzenleme yoluna gitmiş Avrupa Birliği içerisinde yapay zeka sistemlerinin geliştirilmesi, piyasaya sürülmesi ve kullanımı için risk sınıflandırmasına göre kurallar belirlemektedir. Bu çerçevede çalışma kapsamında öncelikle yapay zeka teknolojine ilişkin kavramlar ele alınarak yapay zeka teknolojisinin kullanımı sonucu ortaya çıkan çekinceler, problemler ve etkileri üzerinde durulacak, Avrupa Birliği'nin yapay zeka teknolojisine yönelik 'güvenilir yapay zeka' anlayışı temel unsurları değerlendirilecektir. Bu bağlamda güvenilirliğin sağlanmasında bir unsur olan Yapay Zeka Yasası'nın konusu ve kapsamı, yapay zeka teknolojisini düzenlenmeye yönelik 'risk temelli yaklaşım' yasa hükümleri ve sistematiği çerçevesinde ele alınacaktır. Risk temelli yaklaşım çerçevesinde yapay zeka sistemlerine yönelik risk sınıflandırması, yasa hükümleri ve yapım süreci değerlendirilmiş ve risk temelli yaklaşım bağlamında yapay zeka sistemleri ve bu sistemlerin aktörleri bakımından ortaya konulan yükümlülükler ile yapay zeka sistemleri ve ilgili aktörlere yönelik yönetişim modeli değerlendirilecektir.
Artificial intelligence technology is now used in various fields such as education, healthcare, agriculture, and the financial sector, as well as in diverse areas of public services. This technology is increasingly exerting a transformative impact on human life each day. However, while the use of artificial intelligence brings economic and social benefits, it is also essential to consider the potential risks and adverse consequences it may pose for individuals and societies. The opaque nature of artificial intelligence systems makes it difficult for individuals to understand how they are being assessed by these systems; meanwhile, the widespread adoption of the technology increases ethical and legal concerns regarding the uncertainties in its operation and the outcomes it produces. These uncertainties and risks not only have negative effects on fundamental rights, security, and health, but also place individuals in a vulnerable position against automated decision-making systems. It is essential to demonstrate that artificial intelligence systems are trustworthy and to ensure they are designed in a way that does not harm individuals' fundamental rights. In this context, the challenges and disputes that come along with the opportunities of artificial intelligence have highlighted the need for its regulation, leading the European Union to draft the Artificial Intelligence Act to establish a set of rules governing this technology. In this regard, the Artificial Intelligence Act represents the first comprehensive step taken. By adopting a risk-based approach, the Act categorizes artificial intelligence technologies according to their level of risk and establishes rules accordingly for the development, deployment, and use of AI systems within the European Union. Within this framework, the study will first address the key concepts related to artificial intelligence technology, focusing on the concerns, problems, and impacts arising from its use. It will then evaluate the fundamental elements of the European Union's approach to 'trustworthy artificial intelligence'. In this context, the subject and scope of the Artificial Intelligence Act — as a key element in ensuring trustworthiness — will be examined within the framework of the Act's provisions and structure, focusing on the 'risk-based approach' adopted for regulating artificial intelligence technology. Within the framework of the risk-based approach, the risk classification of artificial intelligence systems, the provisions of the Act, and its legislative process will be examined. Additionally, the obligations imposed on AI systems and their actors, as well as the governance model applicable to these systems and actors, will be evaluated in the context of the risk-based approach.

Description

Keywords

İnsan-Yapay Zeka Etkileşimi, LAW, Hukuk, Human-Artificial Intelligence Interaction

Turkish CoHE Thesis Center URL

Fields of Science

Citation

WoS Q

Scopus Q

Source

Volume

Issue

Start Page

End Page

225
Google Scholar Logo
Google Scholar™

Sustainable Development Goals