21 Nisan 2026 — Av. Sinan Cem GÖDE
Modern hukuk dünyasında, Large Language Models (LLM) olarak adlandırılan geniş dil modellerinin kullanımı, dilekçe yazımı ve hukuki analiz süreçlerinde devrim yaratmıştır. Ancak bu teknolojik imkanlar, beraberinde ciddi Kişisel Verilerin Korunması Kanunu (KVKK) ihlallerini ve etik tartışmaları getirmektedir.
1. Verinin “Kara Kutu”ya Yolculuğu ve Gizlilik Riski
Hukuki süreçlerde kullanılan yapay zeka araçları, kullanıcıdan aldıkları verileri işleyerek çıktı üretirler. Ancak bu modellerin birçoğu “kara kutu” (black box) prensibiyle çalışmaktadır.
- Hassas verilerin (müvekkil bilgileri, dosya içerikleri vb.) rıza alınmaksızın bu sistemlere yüklenmesi, verinin kontrol dışına çıkmasına neden olur.
- Yüklenen veriler, modelin eğitim setine dahil edilerek anonimlik özelliğini yitirebilir.
- Bu durum, avukatın sır saklama yükümlülüğü ve KVKK’nın temel prensipleriyle doğrudan çelişmektedir.
2. Kişisel Verilerin Yurt Dışına Aktarılması Sorunu
Popüler yapay zeka araçlarının çoğunun sunucu altyapısı yurt dışı tabanlıdır.
- Hukuki metinlerin bu modellere aktarılması, 6698 sayılı KVKK kapsamında “kişisel verilerin yurt dışına aktarılması” anlamına gelir.
- Kullanıcının açık rızası veya kanunla belirlenmiş istisnai durumlar (veya güvenli ülke listesi) bulunmadığı sürece bu aktarım hukuka aykırıdır.
- İdari veya yargısal süreçlerde bu tür modellerin kullanımı, tarafların veri güvenliği haklarını ihlal edebilmektedir.
3. Dijital Ayak İzleri ve Bilgi Güvenliği
Bir yapay zeka modeline girilen “X şahsı hakkında açılmış bir dava var mı?” şeklindeki bir talimat (prompt), sistemin belleğine bu veriyi işler.
- Gelecekte başka bir kullanıcı benzer bir sorgu yaptığında, yapay zekanın rıza dışı yüklenen bu verilere dayanarak cevap verme riski mevcuttur.
- Bu durum, dijital dünyada “unutulma hakkı”nın önünde büyük bir engel teşkil etmektedir.