AB, Meta’yı 13 Yaş Altı Çocukların Platformlara Erişimini Engellemede Yetersiz Buldu
Avrupa Komisyonu, uzun süren bir soruşturmanın ardından Meta Platforms’un (Meta) Facebook ve Instagram’da 13 yaş altı çocukların hizmetlere erişimini önleme konusundaki eksik uygulamalarını “dijital hizmetler yasası (Digital Services Act – DSA) çerçevesinde” ihlal olarak nitelendirdi. Soruşturma, 2024 itibarıyla iki yıl süren bir denetim sürecinin ardından ortaya çıkan ön bulgulara dayanıyor ve platformların yaş doğrulama, risk değerlendirme ve içerik kontrol mekanizmalarındaki yetersizlikleri vurguluyor.
Komisyon, Henna Virkkunen başkanlığındaki teknoloji denetim biriminin raporunda, “Instagram ve Facebook, 13 yaş altı kullanıcıların platforma kaydolmalarını etkili bir şekilde engelleyemiyor ve sahte doğum tarihleriyle oluşturulan hesapları tespit edip kaldırmakta yetersiz kalıyor” şeklinde bulgularını paylaştı. AB’ye göre, bu durum DSA’nın 28., 34. ve 35. maddelerine aykırı hareket edilmesine yol açıyor.
Çocukların Platform Kullanım Oranları ve Gerçeklik Sorunları
Avrupa çapındaki veri analizlerine göre, 13 yaş altı çocukların yüzde 10‑12’si Facebook ve Instagram’ı aktif olarak kullanıyor. Bu oran, platformların “yaş sınırlaması” politikasının uygulama aşamasında büyük bir boşluk olduğunu gösteriyor. Meta’nın mevcut sistemlerinde, kullanıcıların doğum tarihlerini doğrulamak için yalnızca basit bir form alanı bulunuyor; bu alan, sahte kimlik bilgileriyle kolayca doldurulabiliyor ve otomatik bir doğrulama mekanizması yok.
Kaynaklarda yer alan örneklerde, sahte doğum tarihleriyle oluşturulan hesapların “raporlanması” sonrasında bile platformun yeterli bir takip süreci yürütmediği belirtiliyor. Kullanıcılar, yaş teyidi talep eden bir bildirimi doldurduklarında, bu bilgiler genellikle manuel olarak inceleniyor ve sonuçların doğruluğu şeffaf bir şekilde kamuoyuna açıklanmıyor.
Algoritma Tasarımları ve “Tavşan Deliği” Etkisi
AB yetkilileri, yalnızca yaş doğrulama eksikliğiyle sınırlı kalmadıklarını, aynı zamanda platformların algoritmik tasarımlarının da çocukların psikolojik sağlığını tehdit ettiğini vurguluyor. “Tavşan deliği” olarak adlandırılan mekanizma, bir çocuğun bir video izledikten sonra benzer içeriklerin ardı ardına sunulması anlamına geliyor. Bu durum, özellikle zararlı, şiddet içeren veya yetişkin temalı içeriklerin çocuğun ekranına düşme riskini artırıyor.
Virkkunen, “Koşullar yalnızca yazılı metinler olmamalı; çocukları koruyan somut adımların temeli olmalı” diyerek, Meta’nın algoritmik öneri sistemlerini yeniden gözden geçirmesi gerektiğini belirtti.
Potansiyel Cezalar ve Meta’nın Yanıtı
DSA kapsamında bir ihlal tespit edilmesi durumunda, AB, şirketin küresel yıllık cirosunun yüzde 6’sına kadar para cezası kesebiliyor. Meta’nın 2025 yılı tahmini cirosu 201 milyar dolar seviyesinde olduğu göz önüne alındığında, olası bir ceza 12 milyar doların üzerine çıkabilir.
Meta ise ön bulgulara itiraz ederek, “Mevcut yaş doğrulama sistemimiz, kullanıcıların yaşını tespit etmek için sektördeki en iyi uygulamaları temel alıyor ve önümüzdeki hafta ek önlemler açıklayacağız” şeklinde bir açıklama yaptı. Şirket, “Yaş doğrulama zorlu bir endüstri sorunu; bu sorunun çözümü ortak bir çaba gerektiriyor” diyerek, AB ile “konstruktif diyalog” içinde olduklarını belirtti.
Diğer Ülkelerdeki Düzenleyici Gelişmeler
AB’nin bu adımı, dünya genelinde sosyal medya platformlarına yönelik artan düzenleyici baskıların bir parçası olarak görülüyor. İspanya, 16 yaş altındaki kullanıcılar için erişim engeli getirmeyi tartışırken, Fransa 15 yaş altındaki gençler için benzer koruma önlemleri üzerine çalışma yürütüyor. Birleşik Krallık ise 16 yaş altı kullanıcılar için belirli özelliklerin kısıtlanması üzerine bir dizi öneri hazırlıyor.
Türkiye de, AB’nin çerçevesine paralel olarak, çocukların dijital ortamda korunması konusunu İçişleri Bakanlığı’nın ilgili biriminde hazırladığı yeni yasa taslağıyla ele almayı planlıyor. Taslak, 13 yaş altındaki çocukların sosyal medya hesaplarının kaydedilmesini zorunlu kılacak ve platformları, sahte kimlik bilgilerinin tespiti için yapay zeka destekli çözümler geliştirmeye yönlendirecek.
Gelecek Adımlar ve Soruşturmanın Takibi
AB Komisyonu, Meta’ya risk değerlendirme metodolojisini güncelleme, yaş doğrulama süreçlerini güçlendirme ve zararlı içerik akışını engelleyecek teknik çözümler sunma yükümlülüğü getiriyor. Şirketin bu taleplere yanıt vermesi, nihai karar ve olası para cezasının belirlenmesi için bir aylık bir süre tanınıyor.
Bu gelişme, hem teknoloji devlerinin hem de düzenleyici otoritelerin, dijital platformlarda çocuk güvenliğini sağlamak üzere daha somut ve ölçülebilir adımlar atması gerektiği mesajını güçlendiriyor. Meta’nın bu süreci nasıl yöneteceği, Avrupa’daki diğer büyük platformların (TikTok, Snapchat vb.) benzer denetimlerle karşı karşıya kalıp kalmayacağı ve küresel ölçekte çocuk koruma standartlarının nasıl şekilleneceği, önümüzdeki aylarda yakından izlenecek konular arasında yer alıyor.
