The criminal liability of artificial intelligence entities
Küçük Resim Yok
Tarih
2019
Yazarlar
Dergi Başlığı
Dergi ISSN
Cilt Başlığı
Yayıncı
Maltepe Üniversitesi
Erişim Hakkı
info:eu-repo/semantics/openAccess
Özet
The legal science has a very challenging task of determining the criminal liability of artificial intelligence entities in near future, as they become increasingly autonomous and capable. At the outset of this article, the definition of an AI is presented, based on such definition article attempts to present a legal solution to the problem of the criminal liability of Al entities. This solution is robustly analyzed through three models of the criminal liability presented by Professor Gabriel Hallevy, that aims to define AI for legal purposes and to analyze whom to hold liable when an AI commits a crime de lege lata. Most of AI entities application in criminal justice today is focused on risk assessment tools for predictive purposes, known as predictive policing. But, AI entities are becoming a subject ranging from algorithmic transparency to autonomous weapons systems. This paper also addresses the number of legal and practical ramifications that applied AI entities are subject to, particularly those involving human autonomy and strict legality. It has raised a number of issues and illuminated the societal needs. The conclusion provides the possible solutions to such social confrontations and gives an answer on questions involving risk assessment analysis, the accuracy of data and methodology used in AI entities’ functioning system, the impact of AI entities on a community, and transparency issues. With regard to the conclusion, the article then normatively analyses possible solutions to the liability problem de lege ferenda.
Yapay zekalar, gittikçe artan bir oranda özerkleştikçe ve kabiliyet sahibi oldukça hukuk biliminin de yapay zeka oluşumlarının yakın gelecekteki cezai sorumluluklarını belirleme görevi zorlaşmaktadır. Bu çalışmanın başlangıcında, yapay zekanın cezai sorumluluğu hakkında getirilecek olan hukuki çözüme dayanılarak, yapay zeka oluşumlarının bir tanımı yapılacaktır. Bu çözüm, Profesör Gabriel Hallevy tarafından, cezai sorumluluğun üç modelinin detaylıca analiz edilmesi şeklinde sunulacaktır. Bunun amacı ise, olan hukuk (de lege lata) kapsamında, yapay zekanın suç işlemesi halinde sorumlu tutulacak kişinin analiz edilmesi ve yapay zekanın hukuki amaçlarının belirlenmesidir. Günümüzde, ceza mahkemelerine yapılan yapay zeka başvurularının çoğunda, ‘’öngörücü polislik’’ adıyla da bilinen öngörücü amaçlar için risk tespiti araçlarına yoğunlaşılıyor. Fakat yapay zekalar, algoritmik şeffaflıktan özerk silah sistemlerine doğru değişen birer özne haline geldi. Bu çalışma, aynı zamanda yapay zekalarla ilgili hukuki ve uygulama alanındaki birçok ayrıma da değinmektedir. Bu ayrımlar, özellikle insanların özgürlüğünü kısıtlayan ve hukukun kesin, katı kurallarına tehdit oluşturan yapay zeka birimleri ile ilgili yapılmıştır. Bu çalışma, birçok soruna ve toplumsal ihtiyaca çözüm aramaktadır. Sonuç bölümünde ise; toplumsal çatışmalara, mümkün olan en iyi çözümler getirilmektedir. Aynı zamanda risk tespiti analizleri, yapay zekaların işleyiş sistemlerinde kullanılan verilerin ve metotların doğruluğu, yapay zekaların toplulukta yarattığı etkiler ve şeffaflık konusundaki sorulara da cevaplar içermektedir. Bu çalışmada sonuç bölümü de dikkate alınarak, doğal hukuk(de lege ferenda) kapsamında sorumluluk konusu normatif şekilde analiz edilerek,bu duruma olası çözümler getirilecektir.
Yapay zekalar, gittikçe artan bir oranda özerkleştikçe ve kabiliyet sahibi oldukça hukuk biliminin de yapay zeka oluşumlarının yakın gelecekteki cezai sorumluluklarını belirleme görevi zorlaşmaktadır. Bu çalışmanın başlangıcında, yapay zekanın cezai sorumluluğu hakkında getirilecek olan hukuki çözüme dayanılarak, yapay zeka oluşumlarının bir tanımı yapılacaktır. Bu çözüm, Profesör Gabriel Hallevy tarafından, cezai sorumluluğun üç modelinin detaylıca analiz edilmesi şeklinde sunulacaktır. Bunun amacı ise, olan hukuk (de lege lata) kapsamında, yapay zekanın suç işlemesi halinde sorumlu tutulacak kişinin analiz edilmesi ve yapay zekanın hukuki amaçlarının belirlenmesidir. Günümüzde, ceza mahkemelerine yapılan yapay zeka başvurularının çoğunda, ‘’öngörücü polislik’’ adıyla da bilinen öngörücü amaçlar için risk tespiti araçlarına yoğunlaşılıyor. Fakat yapay zekalar, algoritmik şeffaflıktan özerk silah sistemlerine doğru değişen birer özne haline geldi. Bu çalışma, aynı zamanda yapay zekalarla ilgili hukuki ve uygulama alanındaki birçok ayrıma da değinmektedir. Bu ayrımlar, özellikle insanların özgürlüğünü kısıtlayan ve hukukun kesin, katı kurallarına tehdit oluşturan yapay zeka birimleri ile ilgili yapılmıştır. Bu çalışma, birçok soruna ve toplumsal ihtiyaca çözüm aramaktadır. Sonuç bölümünde ise; toplumsal çatışmalara, mümkün olan en iyi çözümler getirilmektedir. Aynı zamanda risk tespiti analizleri, yapay zekaların işleyiş sistemlerinde kullanılan verilerin ve metotların doğruluğu, yapay zekaların toplulukta yarattığı etkiler ve şeffaflık konusundaki sorulara da cevaplar içermektedir. Bu çalışmada sonuç bölümü de dikkate alınarak, doğal hukuk(de lege ferenda) kapsamında sorumluluk konusu normatif şekilde analiz edilerek,bu duruma olası çözümler getirilecektir.
Açıklama
Anahtar Kelimeler
Kaynak
Maltepe University International law student congress
WoS Q Değeri
Scopus Q Değeri
Cilt
Sayı
Künye
Fo?i?, M. (2019). The criminal liability of artificial intelligence entities / Yapay zeka kuruluşlarının cezai sorumluluğu. Maltepe University International Law Student Congress. s. 27-28.