Ana içeriğe geç
Bloga Dön
GDPRYapay ZekâVeri KorumaUyumluluk

GDPR Uyumlu Yapay Zekâ Uygulamaları: Veri Koruma, Roller ve Teknik Sınırları Doğru Planlamak

Yapay zekâda GDPR uyumu sonda bir onay kutusu değil, bir mimari karardır: veri minimizasyonu, amaç sınırlaması, veri işleme sözleşmesi, AB hosting, silinebilirlik ve insan denetimi — baştan.

GDPR Uyumlu Yapay Zekâ Uygulamaları: Veri Koruma, Roller ve Teknik Sınırları Doğru Planlamak
OzyCore Team15 Mayıs 2026

Yapay zekâ ve veri koruma hakkındaki en yaygın soru: "Bunu yapmamıza izin var mı?" Daha dürüst soru şu: "Bunu, cevabın güvenilir biçimde evet olacağı şekilde nasıl inşa ederiz?"

Yapay zekâ uygulamalarında GDPR uyumu footer'daki bir feragatnameden gelmez. İlk kod satırından önce alınan mimari kararlardan gelir. Bu yazı bunların hangileri olduğunu gösteriyor.

Düşünce hatası: uyumu son adım sanmak

Birçok yapay zekâ projesi veri korumayı bir son muayene gibi ele alır. Bu işe yaramaz, çünkü kritik anahtarlar erken ayarlanır: hangi veri sisteme akıyor, nerede işleniyor, çıktıya kim erişiyor ve tekrar silinebiliyor mu.

Bu mimari bir kez kurulduğunda veri korumayı sonradan eklemek pahalıdan imkânsıza kadar gider. Bu yüzden veri koruma bir inceleme adımı değil, bir tasarım kararıdır.

Mimariye ait beş kaldıraç

1. Veri minimizasyonu ve amaç sınırlaması

Tüm veri varlığının bir yapay zekâ sistemine girmesi gerekmez. Yalnızca belirli use case'in ihtiyaç duyduğu alanlar — ve yalnızca bu amaç için. "Her şeyi yükleriz, belki model lazım eder" en pahalı ve en riskli varyanttır. Örneğin kurumsal bir bilgi asistanının "tüm belgeler" değil, net sınırlı, yetkili bir bilgi alanı olmalı (bkz. Kurumsal Yapay Zekâ Bilgi Asistanı).

2. Veri işleme ve hosting bölgesi

Harici bir hizmet kişisel veri işliyorsa bu veri işlemedir — sözleşmeli, belgelenmiş alt-işleyenlerle ve net bir hosting bölgesiyle. Kişisel veya gizli veride AB hosting bir konfor özelliği değil, mimarinin parçasıdır. "Model nerede çalışıyor, indeks nerede" bir veri koruma sorusudur, altyapı dipnotu değil.

3. Rol ve yetki modeli

Yapay zekâ, başka türlü asla bulamayacağınız verilere ulaşmanın en hızlı yolu olmamalı. Kaynak sistemin yetkileri yapay zekâ katmanına taşınmazsa, bir asistan iyi UX'li bir veri koruma riski olur. Yetkilendirme yalnızca menüde değil her erişimde geçerli olmalı.

4. Silinebilirlik

Silme hakkı ancak sistem unutabiliyorsa gerçektir. Bir kaynak belge silinirse indeksten, cache'ten ve türetilmiş veriden kaybolmalıdır. Yapısal olarak unutamayan bir yapay zekâ sistemi GDPR uyumlu değildir — gizlilik politikası ne derse desin.

5. İnsan denetimi ve izlenebilirlik

İnsanları etkileyen kararlarda human-in-the-loop bir feragatname değil, bir koruma önlemidir. Buna izlenebilirlik dahildir: hangi veri girdi, ne önerildi, kim onayladı. Bu iz olmadan ne hesap verilebilir ne de bir olay tespit edilebilir.

GDPR ve AI Act iki katmandır — ikisi de geçerli

GDPR kişisel verinin işlenmesini düzenler. EU AI Act buna yapay zekâ sistemleri için risk temelli yükümlülükler ekler ve kademeli yürürlüğe girer: genel amaçlı yapay zekâ yükümlülükleri 2 Ağustos 2025'ten beri geçerli, şeffaflık yükümlülükleri Ağustos 2026'dan, belirli yüksek riskli sistemlere yönelik gereksinimler 2026–2027 arasında.

Pratikte: bir taslak asistanı, insanlar hakkında karar veren bir sistemden farklı sınıflandırılır. Bu sınıflandırma pilot hazırlığına aittir — sona değil. "Bu use case düzenleyici açıdan hassas mı?" diye erken sormak sonradan pahalı geri dönüşleri önler. NIST AI Risk Management Framework bunun için uygulanabilir bir yapı sunar (Govern, Map, Measure, Manage).

"GDPR uyumlu" somut olarak ne anlama gelmez

  • Değil: gizlilik politikasında bir cümle.
  • Değil: gerçekten öyle mi kontrol etmeden "veri zaten anonimleştirilmiş".
  • Değil: veri işleme sözleşmesi ve hosting netliği olmadan "tedarikçi GDPR uyumlu".
  • Değil: hiç tekrarlanmayan tek seferlik bir kontrol.

GDPR uyumu bir söz değil, mimarinin kanıtlanabilir bir durumudur.

Yapay zekâ projesinden önce kontrol listesi

  • Hangi veri hangi amaç için tanımlı — minimize, "her şey" değil?
  • Hosting bölgesi ve veri işleme netleşti mi (kişisel veride AB)?
  • Kaynak sistemlerin erişim hakları yapay zekâ katmanına taşınıyor mu?
  • Sistem silebiliyor mu — indeks, cache ve türetilmiş veriden?
  • Etkili kararlarda insan denetimi ve bir denetim izi var mı?
  • Use case düzenleyici olarak sınıflandırıldı mı (GDPR + AI-Act riski)?
  • Uyum sadece iddia değil kanıtlanabilir biçimde belgelendi mi?

Sık sorulan sorular

Kişisel veriyi bir yapay zekâ sistemine hiç verebilir miyiz? Çoğu zaman evet — hukuki dayanak, veri minimizasyonu, işleme sözleşmesi, AB hosting ve silinebilirlikle. Soru "olur mu" değil "hangi koşullarda"dır. Hukuki/işlevsel sınıflandırma hazırlığa aittir.

Anonimleştirme yeter mi? Yalnızca gerçekse. Geri izlenebilen takma adlar anonimleştirme değildir. Bu bir varsayım değil, kontrol sorusudur.

GDPR uyumu için kendi modelimiz mi lazım? Zorunlu değil. Önemli olan veri akışı, hosting bölgesi, yetkiler ve silinebilirliktir — model logosu değil.

Düzenleyici sınıflandırmayı kim yapar? Kimse tek başına: iş birimi (amaç), geliştirme (veri akışı/mimari) ve bir veri koruma bakışı — inşadan önce, sonra değil.

Sonuç

GDPR uyumlu yapay zekâ proje sonunda bir onay kutusu değildir. Erken mimari kararların toplamıdır: minimize veri, net amaç sınırlaması, netleştirilmiş veri işleme ve AB hosting, taşınan yetkiler, gerçek silinebilirlik ve denetim izli insan kontrolü. Bunu baştan planlayan, "izin var mı?" sorusunu güvenilir biçimde evet diye cevaplayabilir — ve kanıtlayabilir.

İlgili okuma

Sonraki adım

Kişisel veya gizli verili bir yapay zekâ özelliği mi planlıyorsunuz? Veri akışını, hosting'i ve yetkileri baştan çerçeveleyen bir yapay zekâ hazırlık kontrolüyle başlayın — yalnızca pahalıya düzeltilebilecek bir mimari kurulmadan önce.

Kaynaklar

Bu konuyla ilgileniyor musunuz? İşletmenize nasıl yardımcı olabileceğimizi konuşalım.