Etiket: yargı bağımsızlığı

  • KARARI KİM VERİYOR ?

    KARARI KİM VERİYOR ?

    Hukuk dünyasında yapay zeka tartışmaları giderek büyürken, dikkat çekici bir şekilde hedef sürekli avukatlar olmaktadır. Bu yaklaşım, meselenin özünü ıskalayan ve risk alanını yanlış belirleyen bir refleksin ürünüdür. Çünkü hukuk düzeninde belirleyici olan iddia veya savunma değil, hükmün kendisidir. Hükmü kuran ise avukat değil, hâkimdir. Bu nedenle tartışmanın ekseni yanlış kurulmuştur ve asıl sorulması gereken soru şudur: Yapay zeka kullanımının en büyük riski kimdedir?

    Türk hukuk sisteminde avukat ile hâkim arasında ciddi bir sorumluluk dengesizliği bulunmaktadır. Avukat; vekâlet ilişkisi gereği hem sözleşmesel hem haksız fiil sorumluluğu altındadır ve hatalı bir işlem doğrudan maddi sorumluluk doğurabilir. Buna karşılık hâkimlerin sorumluluğu istisnai ve sınırlıdır; hukuki sorumluluk çoğu zaman Devlet üzerinden yürür, cezai sorumluluk ise ağır prosedürlere bağlanmıştır ve uygulamada oldukça dar bir alanda kalır. Bu tablo, yapay zeka kullanımında ortaya çıkan riski büyüten temel unsurdur çünkü daha büyük etki gücüne sahip olan makam, daha sınırlı sorumluluk rejimi içindedir.

    Yapay zeka artık yalnızca bir araştırma aracı değildir; metin üretir, gerekçe oluşturur, içtihat derler ve değerlendirme yapar. Bir hâkimin gerekçe yazımında, hukuki analizde ve kanaat oluşturma sürecinde yapay zeka çıktısına dayanması teknik bir kolaylık değil, fiilen karar sürecine dış bir unsurun dahil edilmesidir. Sorun yapay zekanın kullanılması değildir; sorun, yapay zekanın düşünme sürecine ortak olmasıdır.

    Yargılama sadece norm uygulaması değildir; hâkim somut olayı değerlendirirken vicdani kanaatini kullanır ve bu durum hukukun insani yönünü temsil eder. Yapay zeka ise vicdan üretmez, empati kurmaz ve somut olayın insani ağırlığını tartmaz. Bu nedenle hâkimin, zihnini ve vicdanını yapay zekaya devretmesi yalnızca teknik bir tercih değil, yargı fonksiyonunun özüne dokunan bir kırılmadır.

    Bugün kamuoyunda ve meslek içi tartışmalarda odak sürekli avukatlara yöneltilmektedir. Oysa avukatın yaptığı hata sistem içinde denetlenebilir; karşı taraf vardır, mahkeme vardır, istinaf ve temyiz vardır. Ancak hâkimin yaptığı hata doğrudan hükme dönüşür ve bir kişinin özgürlüğünü, malvarlığını ve itibarını tek bir karar ile etkileyebilir. Bu nedenle riskin merkezi avukatlar değil, yargı yetkisini kullanan makamdır.

    Bugün hâkimlerin yapay zeka kullanımına ilişkin açık ve bağlayıcı bir düzenleme (maalesef ve açıkça) bulunmamaktadır. Ne ölçüde kullanılacağı, hangi sınırların geçilemeyeceği ve hangi durumların yasak olduğu net değildir. Bu durum standartsız uygulamalara, kontrolsüz kullanım biçimlerine ve hesap verilebilirlik boşluklarına yol açmaktadır. Yargı gibi haklar ve özgürlüğün anlam kazandığı bir alanda kullanılan her aracın kaynağı / etkisi denetlenebilir olmalıdır. Aksi halde kararın arkasındaki irade kamu olmaktan çıkar.

    Yapay zekadan korunması gereken meslek avukatlık değildir; avukatlık dönüşür, adapte olur ve rekabet içinde kendini yeniden üretir. Korunması gereken alan yargının kendisidir. Çünkü yanlış bir dilekçe düzeltilebilir, eksik bir savunma tamamlanabilir ancak hatalı bir hüküm çoğu zaman telafisi güç sonuçlar doğurur. Eğer yargı makamı karar sürecinde dış üretimlere bağımlı hale gelirse hukuk devleti ilkesi görünürde korunur fakat içeriği zayıflar ve nihayetinde kaçınılmaz soru ortaya çıkar:

    Kararı gerçekten kim verdi?

    – Murat Can DOLGUN

    İstanbul Avukatı

    Görüş ve Önerileriniz için:

    Mail: av.muratcandolgun@gmail.com

    WhatsApp: +905074754422

  • Yargı Teşkilatında Yapay Zeka Kullanımı: Hakim, Savcı ve Kamu Personelinin KVKK, Cezai ve İdari Sorumluluğu

    Yargı Teşkilatında Yapay Zeka Kullanımı: Hakim, Savcı ve Kamu Personelinin KVKK, Cezai ve İdari Sorumluluğu

    Yapay zeka araçlarının yargı pratiğine fiilen girmesiyle birlikte, hakimler, savcılar ve adliye personeli bakımından yeni bir risk alanı doğmuştur. Dosya özetleme, karar taslağı oluşturma veya analiz amacıyla kullanılan sistemlere; kişisel veriler, soruşturma içerikleri, mahkeme dosyaları ve emniyet evraklarının girilmesi, artık sadece teknik bir tercih değil; çok katmanlı bir hukuki sorumluluk doğuran bir eylem haline gelmiştir. Bu kullanım, aynı anda kişisel verilerin korunması hukuku, ceza hukuku ve disiplin hukuku alanlarına temas etmektedir.

    I. KVKK Kapsamında Sorumluluk

    6698 sayılı Kişisel Verilerin Korunması Kanunu uyarınca, adliye içerisinde işlenen tüm kişisel veriler; hukuka uygunluk, belirli ve meşru amaç, ölçülülük ve veri minimizasyonu ilkelerine tabiidir. Yapay zeka sistemlerine dosya yüklenmesi halinde, bu verilerin işlenme amacı ile kullanılan aracın niteliği arasında çoğu zaman doğrudan bir bağlantı kurulamaz. Bu durum özellikle Madde 4’te düzenlenen genel ilkelerin ihlali riskini doğurur.

    Öte yandan, bu tür sistemlerin önemli bir kısmı bulut tabanlıdır ve veri işleme faaliyetleri çoğu zaman yurtdışı sunucular üzerinden gerçekleşir. Bu durumda, açık rıza, yeterlilik kararı veya uygun güvenceler bulunmaksızın yapılan veri aktarımı, Madde 8 ve 9 kapsamında hukuka aykırı hale gelir. Adliye içinde kullanılan bir aracın teknik altyapısı bilinmeden veri girilmesi, farkında olunmadan yurtdışına veri aktarımı anlamına gelebilir.

    Madde 12 uyarınca veri güvenliğini sağlama yükümlülüğü bulunan veri sorumlusu organizasyon içinde yer alan hakim, savcı ve kamu personeli; bu yükümlülüğün ihlali halinde yalnızca kurumsal değil, aynı zamanda bireysel sorumluluk tartışmasının da tarafı haline gelebilir. Bu kapsamda, yapay zeka araçlarının bilinçsiz kullanımı, KVKK ihlali sonucunu doğurabilecek niteliktedir.

    II. Cezai Sorumluluk (TCK Kapsamı)

    [iTürk Ceza Kanunu bakımından konu değerlendirildiğinde, yapay zeka sistemlerine veri yüklenmesi birden fazla suç tipiyle ilişkilendirilebilir. Kişisel verilerin hukuka aykırı olarak bir sisteme kaydedilmesi, Madde 135 kapsamında suç teşkil edebilir. Aynı şekilde bu verilerin üçüncü taraf sistemlere iletilmesi veya erişilebilir hale getirilmesi, Madde 136 çerçevesinde “verileri hukuka aykırı olarak verme veya ele geçirme” suçu kapsamında değerlendirilebilir.

    Bu fiillerin kamu görevlisi sıfatıyla işlenmesi halinde, Madde 137 gereği cezaların artırılması söz konusu olur. Dolayısıyla hakim, savcı veya adliye personelinin bu tür bir veri aktarımına sebebiyet vermesi, nitelikli suç kapsamında daha ağır sonuçlar doğurabilir.

    Dosyanın niteliğine göre risk daha da büyür. Özellikle devlet güvenliği, kamu düzeni veya soruşturma gizliliği kapsamında bulunan belgelerin yapay zeka sistemlerine yüklenmesi halinde; gizli kalması gereken bilgilerin açıklanması, devletin güvenliğine ilişkin bilgilerin ifşası gibi suç tipleri de gündeme gelebilir. Bu durumda eylem, yalnızca kişisel veri ihlali olmaktan çıkar; doğrudan kamu güvenliğini ilgilendiren bir suç alanına dönüşür.

    III. İdari ve Disiplin Sorumluluğu

    Hakim ve savcılar bakımından 2802 sayılı Hakimler ve Savcılar Kanunu hükümleri uygulanır. Mesleğin onur ve vakarına aykırı davranış, görevin gereklerine uygun hareket etmeme ve gizlilik yükümlülüğünün ihlali; disiplin yaptırımı doğurabilecek fiiller arasındadır. Yapay zeka sistemlerine dosya içeriği aktarılması, özellikle gizlilik ilkesinin ihlali kapsamında değerlendirilebilir.

    Adliye personeli ve diğer kamu görevlileri açısından ise 657 sayılı Devlet Memurları Kanunu hükümleri devreye girer. Görev sırasında öğrenilen bilgilerin açıklanması yasağı ve sadakat yükümlülüğü, bu tür veri aktarımını açıkça sınırlandırır. Bu yükümlülüğe aykırı davranış, kınama, aylıktan kesme, kademe ilerlemesinin durdurulması ve hatta memuriyetten çıkarma gibi sonuçlar doğurabilir.

    Ayrıca yargı teşkilatında kullanılan UYAP sistemi kapalı devre ve kontrollü bir yapı üzerine kuruludur. Bu sistem dışına veri çıkarılması, yalnızca teknik bir tercih değil; aynı zamanda kurumsal güvenlik politikasının ihlali anlamına gelir ve idari sorumluluğu doğrudan tetikler.

    IV. Devlet Sorumluluğu ve Rücu İhtimali

    Bu tür ihlaller yalnızca bireysel sonuç doğurmaz. Kişisel verilerin hukuka aykırı işlenmesi veya gizli bilgilerin ifşası halinde, devletin tazmin sorumluluğu doğabilir. Ancak idare hukuku ilkeleri gereği, ağır kusur veya açık ihlal durumlarında ilgili kamu görevlisine rücu edilmesi de mümkündür. Bu nedenle yapay zeka kullanımındaki hatalı işlemler, uzun vadede kişisel mali sorumluluk riskini de beraberinde getirir.

    V. Devlet Sırrı ve Gizli Belgelerin Paylaşılması Riski

    Yapay zeka sistemlerine veri yüklenmesi meselesi, yalnızca kişisel verilerin korunması ile sınırlı değildir. Dosyanın niteliğine bağlı olarak bu durum, doğrudan devlet sırrı veya gizli belge kapsamına giren bilgilerin kontrolsüz şekilde üçüncü taraf sistemlere aktarılması sonucunu doğurabilir. Bu noktada hukuki değerlendirme, veri koruma hukukunun ötesine geçerek devletin güvenliği ve yargı gizliliği eksenine taşınır.

    Türk Ceza Kanunu kapsamında, devletin güvenliğine, iç veya dış siyasal yararlarına ilişkin gizli kalması gereken bilgilerin açıklanması suç teşkil eder. Hakim, savcı ve adliye personeli, bu bilgilere görevleri gereği erişmektedir. Bu nedenle söz konusu bilgilerin yapay zeka araçlarına girilmesi; teknik olarak bir “analiz” işlemi gibi görünse de, hukuki nitelik itibarıyla üçüncü taraf sistemlere aktarım ve dolayısıyla açıklama olarak değerlendirilebilir.

    Özellikle terör suçları, organize suçlar, istihbarat bağlantılı soruşturmalar, uluslararası adli yardımlaşma dosyaları, sınır güvenliği ve göç süreçlerine ilişkin evraklar ile henüz alenileşmemiş yargısal değerlendirmeler; yüksek gizlilik derecesine sahip belgelerdir. Bu tür verilerin kontrolsüz biçimde yapay zeka sistemlerine yüklenmesi halinde, yalnızca kişisel veri ihlali değil, aynı zamanda gizli kalması gereken bilgilerin ifşası söz konusu olabilir.

    Bu noktada “veriyi kimseyle paylaşmadım, sadece sisteme yükledim” şeklindeki savunma hukuken yeterli değildir. Zira veri, üçüncü taraf altyapılar üzerinden işleniyorsa, bu durum fiilen bir aktarım ve açıklama niteliği taşır. Kontrolün kaybedildiği her durumda, hukuki sorumluluk doğar.

    Sonuç olarak, adliye içerisinde yapay zeka kullanımı; dosyanın içeriğine bağlı olarak yalnızca KVKK ihlali değil, devlet sırrının ifşası ve yargı gizliliğinin ihlali gibi ağır sonuçlar doğurabilecek bir risk alanıdır. Bu nedenle konu, basit bir teknolojik tercih olarak değil, doğrudan kamu güvenliği ve yargı bağımsızlığı meselesi olarak ele alınmalıdır.

    VI. Genel Değerlendirme ve Acil Düzenleme İhtiyacı

    Yargı teşkilatında yapay zeka kullanımının tamamen yasaklanması gerçekçi değildir. Ancak bu kullanımın kuralsız bırakılması, hem bireysel hem kurumsal ölçekte ciddi hukuki riskler doğurmaktadır. Bugün gelinen noktada sorun, teknolojinin varlığı değil; kullanım sınırlarının belirlenmemiş olmasıdır.

    Adalet Bakanlığı’nın, hakimler, savcılar ve tüm adliye personeli bakımından yapay zeka kullanımına ilişkin açık, bağlayıcı ve denetlenebilir bir çerçeve oluşturması artık zorunluluktur. Hangi verilerin kesinlikle bu sistemlere yüklenemeyeceği, hangi araçların kullanılabileceği ve veri aktarımının hangi şartlara tabi olacağı genelge ve özelgelerle derhal belirlenmelidir.

    Aksi halde, iyi niyetli ve pratik amaçlarla yapılan işlemler dahi; KVKK ihlali, ceza sorumluluğu ve disiplin yaptırımları ile sonuçlanabilecek çok boyutlu bir risk alanı oluşturmaya devam edecektir.


    Sonuç ve Değerlendirme

    Yargı teşkilatında yapay zeka kullanımının yaygınlaşması, doğru sınırlar çizilmediği takdirde yalnızca teknik bir dönüşüm değil; aynı anda KVKK ihlalleri, cezai sorumluluklar, disiplin yaptırımları ve hatta devlet sırrının ifşası gibi ağır sonuçlar doğurabilecek çok katmanlı bir risk alanı oluşturmaktadır. Hakimlerin, savcıların ve kamu personelinin iyi niyetle ve pratik amaçlarla gerçekleştirdiği işlemler dahi, mevcut mevzuat karşısında ciddi hukuki sonuçlara yol açabilir.

    Bu nedenle mesele, bireysel dikkat çağrılarıyla çözülebilecek bir alan olmaktan çıkmış; doğrudan kurumsal düzenleme ihtiyacı haline gelmiştir. Adalet Bakanlığı’nın genelge ve özelgelerle açık, bağlayıcı ve denetlenebilir bir çerçeve oluşturması artık gecikmeksizin ele alınması gereken bir zorunluluktur. Aksi halde uygulama birliği sağlanamayacak, riskler kişisel inisiyatiflere bırakılacak ve bu durum hem yargı güvenliğini hem de kamu düzenini zedeleyecektir.

    Bu çalışma, yalnızca teorik bir değerlendirme değil; sahada aktif olarak çalışan bir hukukçu perspektifiyle, uygulamada karşılaşılması kuvvetle muhtemel risklerin ortaya konulması amacıyla kaleme alınmıştır. Yargı sisteminin dijitalleşmesi kaçınılmazdır; ancak bu dönüşümün hukuki güvenlik, veri koruma ve yargı bağımsızlığı ilkeleriyle uyumlu şekilde ilerlemesi gerekmektedir.

    Murat Can Dolğun
    TD Hukuk ve Danışmanlık
    İstanbul Barosu Avukatı

  • Herkes Avukatlığı Konuşuyor, Peki Ya Hakimler? Yapay Zeka Çağında Yargının Geleceği

    Herkes Avukatlığı Konuşuyor, Peki Ya Hakimler? Yapay Zeka Çağında Yargının Geleceği

    1. Giriş

    Yapay zeka teknolojilerinin hukuk alanına girmesi, son yıllarda hukuk mesleklerinin geleceği hakkında geniş çaplı bir tartışma başlatmıştır. Bu tartışmaların büyük bölümü avukatlık mesleği etrafında dönmektedir. Hukuki araştırma, içtihat taraması, sözleşme inceleme ve belge hazırlama gibi faaliyetlerin veri temelli olması, bu alanlarda yapay zeka sistemlerinin hızlı ve etkili sonuç üretebilmesini mümkün kılmaktadır. Bu nedenle hukuk teknolojileri literatüründe en sık dile getirilen tez, yapay zekanın öncelikle avukatlık mesleğini dönüştüreceği yönündedir.

    Ancak hukuk sisteminin yapısına daha yakından bakıldığında farklı bir tablo ortaya çıkmaktadır. Hukuk düzeninin merkezinde yalnızca avukatlar değil, aynı zamanda hakimler bulunmaktadır. Bu nedenle yapay zeka teknolojilerinin hukuk sistemine etkisi değerlendirilirken hakimlik mesleğinin doğası, yargısal kararların yapısı ve mahkeme organizasyonu da dikkate alınmalıdır. Son yıllarda yayımlanan bazı akademik çalışmalar, yapay zekanın hukuki akıl yürütme konusundaki performansının hakimlik mesleğinin geleceği hakkında yeni sorular ortaya çıkardığını göstermektedir.

    2. Hukuki Yapay Zeka ve Formalist Akıl Yürütme

    2.1 Kurallara Dayalı Hukuki Analiz

    Büyük dil modelleri hukuk metinlerini analiz ederek normlar arası ilişkileri kurabilmekte ve belirli kurallar çerçevesinde hukuki sonuçlara ulaşabilmektedir. Bu yetenek özellikle kurallara dayalı hukuki analiz alanında dikkat çekici sonuçlar ortaya çıkarmaya başlamıştır.

    Chicago Üniversitesi hukuk profesörü Eric Posner ve araştırmacı Shivam Saran tarafından yürütülen bir çalışmada GPT-5 modeli, daha önce ABD federal hakimleri üzerinde uygulanmış bir hukuki akıl yürütme deneyinde test edilmiştir. Araştırmada katılımcılardan trafik kazası senaryolarında hangi eyalet hukukunun uygulanması gerektiğine karar vermeleri istenmiştir. Bu tür sorular özellikle kanunlar ihtilafı alanında teknik ve sistematik analiz gerektirir.

    Çalışmanın sonuçlarına göre GPT-5 modeli tüm vakalarda hukuken doğru sonuca ulaşmış ve herhangi bir mantık hatası ya da halüsinasyon sergilememiştir (Eric Posner & Shivam Saran, Silicon Formalism: Rules, Standards, and Judge AI, SSRN, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6155012).

    Bu araştırma teknoloji medyasında da geniş yer bulmuştur. The Register tarafından yayımlanan bir haberde, söz konusu testte yapay zeka modelinin hukuki formalizm bakımından insan hakimlerden daha tutarlı sonuçlar ürettiği belirtilmiştir (The Register, “GPT-5 bests human judges in legal smack down”, https://www.theregister.com/2026/02/15/gpt5_bests_human_judges_in/).

    Bu sonuçlar, yapay zeka sistemlerinin özellikle kurallara dayalı hukuki analizlerde oldukça güçlü bir performans gösterebildiğini ortaya koymaktadır.

    3. Hakimlik Mesleğinin Temel İlkeleri

    Hakimlik mesleği modern hukuk devletlerinin en temel kurumlarından biridir. Hakimlerin karar verirken uyması gereken en önemli ilkelerden biri tarafsızlık ve objektifliktir. Avrupa İnsan Hakları Mahkemesi içtihadında tarafsızlık ilkesinin hem öznel hem de nesnel boyutunun bulunduğu vurgulanmıştır (European Court of Human Rights, Piersack v. Belgium, https://hudoc.echr.coe.int/eng?i=001-57589).

    Bu ilke teorik olarak hakimlerin kararlarının kişisel önyargılardan arınmış olmasını gerektirir. Ancak insan karar verme süreçleri tamamen mekanik değildir. Hukuk ve psikoloji alanındaki çalışmalar, hakimlerin kararlarının bazı durumlarda bilişsel faktörlerden etkilenebildiğini göstermektedir.

    Örneğin Danziger, Levav ve Avnaim-Pesso tarafından yapılan bir araştırmada hakimlerin şartlı tahliye kararlarının günün saatine göre değişebildiği ortaya konmuştur (Danziger, Levav & Avnaim-Pesso, “Extraneous Factors in Judicial Decisions”, Proceedings of the National Academy of Sciences, https://www.pnas.org/doi/10.1073/pnas.1018033108).

    Bu çalışma yargısal kararların bazı durumlarda hukuken ilgisiz faktörlerden etkilenebildiğini göstermesi bakımından hukuk literatüründe önemli bir referans olarak kabul edilmektedir.

    4. Yapay Zeka Objektiflik Konusunda Hakimler’den Daha İyi Olabilir Mi?

    Yapay zeka sistemleri insanlardan farklı olarak yorgunluk, stres, siyasal düşünceler veya duygusal etkilerden etkilenmez. Bu nedenle bazı araştırmacılar yapay zekanın özellikle hukuki tutarlılık ve objektiflik açısından avantaj sağlayabileceğini ileri sürmektedir.

    OECD tarafından yayımlanan bir raporda yapay zekanın adalet sisteminde veri analizi, dava yönetimi ve içtihat taraması gibi alanlarda kullanılabileceği belirtilmektedir (OECD, “AI in Justice Administration and Access to Justice”, https://www.oecd.org/en/publications/ai-in-justice-administration-and-access-to-justice).

    Bununla birlikte hukuk teorisi açısından önemli bir nokta bulunmaktadır. Hakimler bazı durumlarda kurallardan saparak daha adil sonuçlara ulaşabilir. Bu durum hukuk teorisinde formalizm ile takdir yetkisi arasındaki klasik gerilimi ortaya koymaktadır.

    5. Yargı Yapay Zekayla Tanışmaya Başladı

    Yapay zeka tartışmaları çoğunlukla avukatlık mesleğine odaklanmaktadır. Ancak uzun vadede daha kapsamlı değişimin yargı sisteminin kendi içinde ortaya çıkması mümkündür. Yapay zeka teknolojileri mahkemelerde özellikle dosya analizi, içtihat araştırması ve dava yönetimi gibi alanlarda kullanılmaya başlamıştır.

    Amerika Birleşik Devletleri’nde bazı yargı sistemleri hakimler ve mahkeme personeli için yapay zeka kullanımına ilişkin kurallar geliştirmeye başlamıştır. Örneğin New York mahkeme sistemi hakimler ve mahkeme çalışanlarının yapay zeka kullanımına ilişkin resmi yönergeler yayımlamıştır (Reuters, “New York court system sets rules for AI use by judges, staff”, https://www.reuters.com/legal/government/new-york-court-system-sets-rules-ai-use-by-judges-staff-2025-10-10/).

    Benzer şekilde California yargı sistemi de yapay zeka kullanımına ilişkin düzenleyici kurallar kabul etmiştir (Reuters, “California court system adopts rule on AI use”, https://www.reuters.com/legal/government/california-court-system-adopts-rule-ai-use-2025-07-18/).

    Bu gelişmeler yapay zekanın yalnızca hukuk bürolarında değil, aynı zamanda yargı kurumlarının işleyişinde de giderek daha fazla yer bulmaya başladığını göstermektedir.

    6. Mahkeme Organizasyonu ve Kalem Personeli Etkilenebilir

    Yapay zekanın hukuk sisteminde en hızlı etkileyeceği alanlardan biri çoğu zaman gözden kaçmaktadır. Mahkemelerdeki idari süreçlerin önemli bir bölümü veri yönetimine dayanır. Dosya sınıflandırma, belge düzenleme, duruşma planlama ve dava yönetimi gibi işlemler algoritmik sistemler tarafından oldukça hızlı biçimde gerçekleştirilebilir.

    ABD eyalet mahkemeleri üzerine yapılan bazı çalışmalar, yapay zeka araçlarının özellikle mahkeme organizasyonu ve dava yönetimi süreçlerini önemli ölçüde değiştirebileceğini göstermektedir (National Center for State Courts, “Judicial Use of Generative AI: Lessons Learned”, https://www.ncsc.org/resources-courts/judicial-use-generative-ai-lessons-learned).

    Bu nedenle yargı sisteminde ilk büyük dönüşümün hakimlik mesleğinden önce mahkeme kalemleri ve yargı bürokrasisi üzerinde ortaya çıkması ihtimali oldukça güçlü görünmektedir.

    7. Sonuç

    Yapay zeka hukuk sistemini giderek daha güçlü biçimde etkilemektedir. Hukuki araştırma ve belge analizi gibi alanlarda yapay zeka araçlarının yaygınlaşması avukatlık mesleğini dönüştürmektedir. Bununla birlikte yapay zeka sistemlerinin kurallara dayalı hukuki formalizmde gösterdiği başarı, hakimlik mesleğinin geleceği hakkında da yeni sorular ortaya çıkarmaktadır.

    Hakimlik mesleğinin temel ilkeleri olan objektiflik ve tarafsızlık teorik olarak algoritmik sistemlerle uyumlu görünmektedir. Ancak hukuk sistemi yalnızca kuralların mekanik uygulanmasından ibaret değildir. Takdir yetkisi, etik değerlendirme ve toplumsal bağlamın dikkate alınması insan yargısının önemli unsurlarıdır.

    Bu nedenle kısa vadede yapay zekanın hakimlerin yerini tamamen alması beklenmemektedir. Bununla birlikte yapay zeka destekli analiz araçlarının yargı süreçlerini yeniden şekillendirmesi kaçınılmaz görünmektedir. Uzun vadede ise hukuk dünyasındaki en büyük değişim yalnızca avukatlık mesleğinde değil, yargı sisteminin işleyişinde ve mahkeme organizasyonunun yapısında ortaya çıkabilir.

    Dipnotlar

    1- National Center for State Courts, Judicial Use of Generative AI: Lessons Learned. https://www.ncsc.org/resources-courts/judicial-use-generative-ai-lessons-learned

    2- Eric Posner & Shivam Saran, Silicon Formalism: Rules, Standards, and Judge AI. SSRN. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6155012

    3- The Register, “GPT-5 bests human judges in legal smack down”. https://www.theregister.com/2026/02/15/gpt5_bests_human_judges_in/

    4- European Court of Human Rights, Piersack v. Belgium. https://hudoc.echr.coe.int/eng?i=001-57589

    5- Shai Danziger, Jonathan Levav & Liora Avnaim-Pesso, “Extraneous Factors in Judicial Decisions”, Proceedings of the National Academy of Sciences. https://www.pnas.org/doi/10.1073/pnas.1018033108

    6- OECD, AI in Justice Administration and Access to Justice. https://www.oecd.org/en/publications/ai-in-justice-administration-and-access-to-justice

    7- Reuters, “New York court system sets rules for AI use by judges, staff”. https://www.reuters.com/legal/government/new-york-court-system-sets-rules-ai-use-by-judges-staff-2025-10-10/

    8- Reuters, “California court system adopts rule on AI use”. https://www.reuters.com/legal/government/california-court-system-adopts-rule-ai-use-2025-07-18/

    9- National Center for State Courts, Judicial Use of Generative AI: Lessons Learned. https://www.ncsc.org/resources-courts/judicial-use-generative-ai-lessons-learned