The criminal liability of artificial intelligence entities

Küçük Resim Yok

Tarih

2019

Dergi Başlığı

Dergi ISSN

Cilt Başlığı

Yayıncı

Maltepe Üniversitesi

Erişim Hakkı

info:eu-repo/semantics/openAccess

Araştırma projeleri

Organizasyon Birimleri

Dergi sayısı

Özet

The legal science has a very challenging task of determining the criminal liability of artificial intelligence entities in near future, as they become increasingly autonomous and capable. At the outset of this article, the definition of an AI is presented, based on such definition article attempts to present a legal solution to the problem of the criminal liability of Al entities. This solution is robustly analyzed through three models of the criminal liability presented by Professor Gabriel Hallevy, that aims to define AI for legal purposes and to analyze whom to hold liable when an AI commits a crime de lege lata. Most of AI entities application in criminal justice today is focused on risk assessment tools for predictive purposes, known as predictive policing. But, AI entities are becoming a subject ranging from algorithmic transparency to autonomous weapons systems. This paper also addresses the number of legal and practical ramifications that applied AI entities are subject to, particularly those involving human autonomy and strict legality. It has raised a number of issues and illuminated the societal needs. The conclusion provides the possible solutions to such social confrontations and gives an answer on questions involving risk assessment analysis, the accuracy of data and methodology used in AI entities’ functioning system, the impact of AI entities on a community, and transparency issues. With regard to the conclusion, the article then normatively analyses possible solutions to the liability problem de lege ferenda.
Yapay zekalar, gittikçe artan bir oranda özerkleştikçe ve kabiliyet sahibi oldukça hukuk biliminin de yapay zeka oluşumlarının yakın gelecekteki cezai sorumluluklarını belirleme görevi zorlaşmaktadır. Bu çalışmanın başlangıcında, yapay zekanın cezai sorumluluğu hakkında getirilecek olan hukuki çözüme dayanılarak, yapay zeka oluşumlarının bir tanımı yapılacaktır. Bu çözüm, Profesör Gabriel Hallevy tarafından, cezai sorumluluğun üç modelinin detaylıca analiz edilmesi şeklinde sunulacaktır. Bunun amacı ise, olan hukuk (de lege lata) kapsamında, yapay zekanın suç işlemesi halinde sorumlu tutulacak kişinin analiz edilmesi ve yapay zekanın hukuki amaçlarının belirlenmesidir. Günümüzde, ceza mahkemelerine yapılan yapay zeka başvurularının çoğunda, ‘’öngörücü polislik’’ adıyla da bilinen öngörücü amaçlar için risk tespiti araçlarına yoğunlaşılıyor. Fakat yapay zekalar, algoritmik şeffaflıktan özerk silah sistemlerine doğru değişen birer özne haline geldi. Bu çalışma, aynı zamanda yapay zekalarla ilgili hukuki ve uygulama alanındaki birçok ayrıma da değinmektedir. Bu ayrımlar, özellikle insanların özgürlüğünü kısıtlayan ve hukukun kesin, katı kurallarına tehdit oluşturan yapay zeka birimleri ile ilgili yapılmıştır. Bu çalışma, birçok soruna ve toplumsal ihtiyaca çözüm aramaktadır. Sonuç bölümünde ise; toplumsal çatışmalara, mümkün olan en iyi çözümler getirilmektedir. Aynı zamanda risk tespiti analizleri, yapay zekaların işleyiş sistemlerinde kullanılan verilerin ve metotların doğruluğu, yapay zekaların toplulukta yarattığı etkiler ve şeffaflık konusundaki sorulara da cevaplar içermektedir. Bu çalışmada sonuç bölümü de dikkate alınarak, doğal hukuk(de lege ferenda) kapsamında sorumluluk konusu normatif şekilde analiz edilerek,bu duruma olası çözümler getirilecektir.

Açıklama

Anahtar Kelimeler

Kaynak

Maltepe University International law student congress

WoS Q Değeri

Scopus Q Değeri

Cilt

Sayı

Künye

Fo?i?, M. (2019). The criminal liability of artificial intelligence entities / Yapay zeka kuruluşlarının cezai sorumluluğu. Maltepe University International Law Student Congress. s. 27-28.