Dijitalleşme, çocukların bilgiye, eğitime, eğlenceye ve sosyal etkileşime erişimini kolaylaştırırken; aynı zamanda onları şiddet, müstehcenlik, siber zorbalık, nefret söylemi, manipülatif reklamlar, kumar-benzeri mekanikler ve yaşlarına uygun olmayan oyun ile yayın içerikleriyle karşı karşıya bırakmaktadır. Özellikle çevrim içi oyunlar, yalnızca bir “oyun” alanı olmaktan çıkmış; sohbet bölümleri, mikro ödeme sistemleri, kullanıcı üretimli içerikler, canlı yayın entegrasyonları ve algoritmik öneri sistemleriyle çok katmanlı dijital ekosistemlere dönüşmüştür. Bu nedenle, çocukların sanal alemdeki zararlı içeriklere erişiminin zorlaştırılması artık yalnızca aile içi denetim meselesi değil; çocuk hukuku, medya hukuku, bilişim hukuku, ceza hukuku ve temel haklar hukukunun kesişiminde yer alan bir kamu hukuku sorunu hâline gelmiştir.
Türkiye’de bu konuda doğrudan “şiddet içerikli dijital oyunlar kanunu” şeklinde yekpare bir düzenleme bulunmamaktadır. Bunun yerine farklı alanlara ilişkin mevzuatın kesişiminden oluşan bir koruma rejimi vardır. Bu rejim; çocukların üstün yararı ilkesini temel alır, bazı içerikleri suç olarak tanımlar, bazı yayın türlerine yaşa uygun sunum yükümlülüğü getirir, bazı hallerde erişimin engellenmesine izin verir ve teknik koruma altyapılarını teşvik eder. Ancak aynı zamanda bu rejim; internetin sınır aşan yapısı, platformların yabancı merkezli oluşu, oyunların klasik yayın kategorilerine tam oturmaması ve erişim engellemenin ifade özgürlüğü bakımından doğurduğu sorunlar nedeniyle yapısal güçlüklerle karşı karşıyadır.
Bu makalenin amacı, çocukların sanal alemde şiddet içerikli oyunlara ve diğer zararlı içeriklere erişiminin zorlaştırılması bakımından mevzuatsal fırsatları, mevcut önlemleri ve hukuki/kurumsal engelleri sistematik biçimde incelemektir.
I. Kavramsal Çerçeve: “Zararlı İçerik” ve “Erişimin Zorlaştırılması” Ne Demektir?
Çocukların dijital ortamda korunmasına ilişkin tartışmalarda ilk güçlük, “zararlı içerik” kavramının kapsamının tek bir mevzuat maddesinde açık ve bütüncül biçimde tanımlanmamış olmasıdır. Hukuken zararlı içerik, her zaman doğrudan suç teşkil eden içerikle aynı şey değildir. Bir içerik suç olmayabilir; ancak çocuğun fiziksel, zihinsel, ahlaki veya psikolojik gelişimi bakımından sakıncalı olabilir. Örneğin yoğun şiddet estetiği taşıyan, işkenceyi oyunlaştıran, cinsellik ve saldırganlığı ödüllendiren, çocuğu sürekli çevrim içi tutmaya yönelten veya yaşına uygun olmayan korku temalı oyun ve yayınlar her zaman doğrudan ceza hukuku bakımından yasaklı olmayabilir. Buna rağmen çocuk bakımından korunma ihtiyacını doğurabilir.
Burada “erişimin zorlaştırılması” da mutlak yasak anlamına gelmez. Hukuken erişimi zorlaştırma; yaş doğrulama, ebeveyn kontrolü, güvenli internet profilleri, içerik sınıflandırması, koruyucu semboller, algoritmik görünürlüğün düşürülmesi, çocuk profillerinde varsayılan kısıtlamalar, saat bazlı sınırlama, URL bazlı erişim engelleme, uygulama mağazası yaş etiketleri, oyun içi satın alma sınırları ve gerektiğinde hâkim kararıyla erişim engelleme gibi çok çeşitli yöntemleri kapsar. Anayasa Mahkemesi’nin yaklaşımı da bu noktada önemlidir: Mahkeme, internet içeriğine erişimin engellenmesini “ağır bir müdahale” olarak görmüş ve mümkün olduğunda daha hafif araçların tercih edilmesi gerektiğini ifade etmiştir. Bu nedenle çağdaş hukuk politikası bakımından esas mesele, topyekûn sansür değil; çocuğun üstün yararı ile ifade özgürlüğü arasında hassas denge kuran kademeli müdahale sistemi oluşturmaktır.
Doktrinde de çocukların dijital ortamda korunmasında salt yasaklamanın yeterli olmadığı; yaşa ve içeriğe göre işaretleme, öz denetim, ebeveyn destek mekanizmaları ve kamu otoritesinin rehberlik rolünün birlikte işletilmesi gerektiği vurgulanmaktadır. Nitekim karşılaştırmalı örneklerde de içeriklerin yaş gruplarına göre sınıflandırılması ve teknik korumalarla desteklenmesi öne çıkmaktadır.
II. Türkiye’de Mevzuatsal Fırsatlar
1. Çocuğun üstün yararı ilkesinin güçlü bir anayasal ve yasal dayanak oluşturması
Türk hukukunda en önemli fırsat, çocuklara ilişkin bütün yorumların merkezine yerleştirilebilecek güçlü bir koruma ilkesi bulunmasıdır. Çocuk Koruma Kanunu m. 4, çocuğun yaşama, gelişme, korunma ve katılım haklarının güvence altına alınmasını; yarar ve esenliğinin gözetilmesini ve süratli, etkili, insan haklarına dayalı bir usul izlenmesini emreder. Bu ilke, dijital ortama özel yazılmamış olsa da, internet ve oyun platformlarına ilişkin tüm yorumlarda uygulanabilir. Başka bir ifadeyle, çocukların şiddet içerikli oyunlara maruz kalmasının sınırlandırılması yönünde düzenleme yapılması için pozitif hukukta yeterli ilkesel temel mevcuttur.
Bu aynı zamanda yasama organı ve idare açısından reform alanı da açar. Çünkü çocukların korunmasına yönelik yeni bir yaş doğrulama, oyun sınıflandırması, ebeveyn kontrolü zorunluluğu veya platform yükümlülüğü getirildiğinde, bunun hukuki meşruiyeti büyük ölçüde çocuğun üstün yararı ilkesinden beslenecektir. Mevzuatsal fırsat tam da burada ortaya çıkar: sistemde “çocukların korunması” yönünde normatif boşluk yoktur; boşluk daha çok uygulamayı somutlaştıran ikincil araçlar düzeyindedir.
2. 5651 sayılı Kanun’un içeriğin çıkarılması ve erişim engellenmesi mekanizması
5651 sayılı Kanun, internet ortamındaki yayınlara müdahaleyi mümkün kılan başlıca genel çerçeveyi sunar. Özellikle m. 8/A, kamu düzeni, suç işlenmesinin önlenmesi, genel sağlık ve güvenlik gibi sebeplerle içeriğin çıkarılması veya erişimin engellenmesi kararlarına imkân verir. Bu hüküm, çocuklara yönelen ağır tehlikelerde veya suç teşkil eden içeriklerde kullanılabilecek bir araçtır. Ayrıca düzenleme, mümkün olduğunca yayının belirli kısmına, URL bazında müdahaleyi esas almakta; teknik zorunluluk hâlinde sitenin tümüne erişim engeline izin vermektedir. Bu, teorik olarak ölçülülük ilkesine daha uygun bir modeldir.
Çocukların maruz kaldığı bazı dijital içerikler bakımından 5651’in sağladığı fırsat, hızlı müdahale kabiliyetidir. Özellikle çocuk pornografisi, müstehcenlik, intihara yönlendirme, ağır şiddet görüntüleri veya suç teşkil eden diğer yayınlar söz konusu olduğunda, içeriğin yayından çıkarılması ve erişimin engellenmesi önemli bir araç olabilir. Bununla birlikte bu mekanizma, şiddet içerikli her oyuna veya çocuğun gelişimi bakımından sakıncalı her içeriğe doğrudan uygulanabilir, açık ve özel bir oyun hukuku rejimi yaratmamaktadır. Yani fırsat vardır; fakat kapsamı sınırlı ve çoğu zaman olay bazlıdır.
3. 6112 sayılı Kanun’un yayıncılık alanında sunduğu koruma modeli
6112 sayılı Kanun, çocuk ve gençlerin fiziksel, zihinsel veya ahlakî gelişimine zarar verebilecek içeriklerin, onların izleyebileceği zaman dilimlerinde yayımlanamayacağını belirtir. Daha da önemlisi, isteğe bağlı yayın hizmeti sağlayıcıları bakımından çocukların bu tür hizmetleri “normal şartlar altında duymayacakları ve görmeyecekleri şekilde” sunma yükümlülüğü getirilmiştir. Bu hüküm, klasik televizyon yayıncılığı yanında dijital yayıncılık rejimi açısından da önemli bir fırsattır. Çünkü çocuk koruması bakımından sadece içeriğin niteliğine değil, sunum biçimine de odaklanmaktadır.
Buradaki mevzuatsal fırsat şudur: Türk hukuku, dijital içerik sağlayıcılarına yalnızca “uyarma” görevi değil; erişimi çocuk bakımından fiilen güçleştirecek tasarım yükümlülüğü getirebilecek kavramsal altyapıya sahiptir. Bu yaklaşım, çevrim içi video platformları, isteğe bağlı yayın hizmetleri ve hatta belirli ölçüde oyun yayınlarıyla ilişkili içeriklerde uygulanabilir bir düşünsel temel sunar. Ancak sorun, bu modelin oyun ekosistemine ve uygulama mağazalarına ne ölçüde genişletileceğidir.
4. TCK m. 226 ve suç teşkil eden içeriklerde ceza hukuku koruması
Türk Ceza Kanunu m. 226 özellikle müstehcenlik, çocukların kullanıldığı veya çocuk gibi görünen kişilerin yer aldığı içerikler ve bunların çocuklara gösterilmesi bakımından ciddi yaptırımlar öngörmektedir. Bu norm doğrudan “şiddet içerikli oyunları” hedef almasa da, çocukların dijital ortamda maruz kalabileceği bazı ağır zararlı içerik türleri bakımından güçlü bir yaptırım sağlar. Ceza hukukunun sağladığı fırsat, bazı içerik türlerinde yalnızca idari değil, aynı zamanda cezai caydırıcılık yaratmasıdır.
Bu yönüyle sistem, çocuklara açık müstehcen içerik, çocuk pornografisi, çocukları hedef alan bazı cinsel sömürü biçimleri ve benzeri ağır ihlallerde güçlü görünmektedir. Fakat şiddet temalı dijital oyunlar bakımından benzer derecede özel, ayrıntılı ve yaş bazlı bir ceza hukuku yaklaşımı bulunmamaktadır. Bu da korumanın “çok ağır vakalarda güçlü, gri alanda ise dağınık” olmasına yol açmaktadır.
5. Güvenli internet altyapısı ve işletmecilere yüklenen koruyucu rol
Elektronik haberleşme sektörüne ilişkin tüketici hakları yönetmeliğinde, işletmecilerin internetin güvenli kullanımına ilişkin olarak tüketicileri bilgilendirmesi ve Kurum tarafından belirlenen yasadışı ve zararlı içeriklere karşı altyapı seviyesinde koruyucu hizmetleri ek ücret olmaksızın seçenekli olarak sunması öngörülmüştür. Bu hüküm, çocuk koruması bakımından çok önemli ama uygulamada çoğu zaman yeterince görünmeyen bir fırsattır. Çünkü bu düzenleme, zararlı içeriğe karşı mücadeleyi yalnızca yargısal erişim engeli ekseninde bırakmayıp; önleyici teknik filtreleme ve güvenli profil yaklaşımını hukuken meşrulaştırmaktadır.
Bu zemin, çocuk profili, yaşa göre içerik kısıtlama, aile filtreleri, DNS/altyapı bazlı sınırlamalar ve ağ düzeyinde koruma araçlarının geliştirilmesi için kullanılabilir. Özellikle oyun indirme siteleri, şiddet ve cinsellik içeren video akış platformları veya yaşa uygun olmayan içerik kategorileri bakımından erişimin zorlaştırılması teknik olarak desteklenebilir. Ancak bu alanda sorunun mevzuat eksikliğinden çok, tasarım, standardizasyon ve etkin kullanım eksikliği olduğu söylenebilir.
6. Küçükleri muzır neşriyattan koruma anlayışının dijital alana ilham verebilmesi
1117 sayılı Küçükleri Muzır Neşriyattan Koruma Kanunu esasen basılı eserler döneminin mantığını taşımaktadır. Buna rağmen “küçüklere zararlıdır” ibaresi, teşhir yasağı ve küçüklerin erişimini sınırlandırma anlayışı bakımından önemli bir hukuki gelenek sunar. Her ne kadar dijital oyunlar ve çevrim içi içerikler bu kanunun doğrudan klasik uygulama alanına tam oturmasa da, mevzuatsal reform yapılması hâlinde yaş etiketi, görünür uyarı, teşhirin sınırlandırılması ve çocuklara yönelik tanıtım yasağı gibi mekanizmalar bakımından bu gelenekten yararlanılabilir.
III. Mevcut Önlemler: Hukuken Kullanılabilen veya Geliştirilebilen Araçlar
1. Yaş sınıflandırması ve içerik işaretleme
Türkiye’de televizyon yayıncılığı alanında koruyucu semboller ve akıllı işaret sistemi uzun süredir bilinmektedir. Danıştay’ın kararlarında da çocukların tek bir kategori olarak ele alınamayacağı, örneğin 0-7, 8-12, 13-15 ve 18 yaş altı gibi ayrı gruplar bakımından farklı etkilerin değerlendirilmesi gerektiği vurgulanmıştır. Bu yaklaşım, oyunlar ve dijital platformlar bakımından da son derece değerlidir. Çünkü “çocuk” homojen bir kategori değildir; 6 yaşındaki bir çocuğun maruz kalacağı şiddet içeriği ile 16 yaşındaki ergenin maruz kaldığı içerik aynı hukuki değerlendirmeye tabi tutulmamalıdır.
Bu çerçevede en etkili araçlardan biri, dijital oyunlar ve platform içerikleri için zorunlu, görünür, standartlaştırılmış yaş ve içerik işaretleme rejimi kurulmasıdır. Şiddet, korku, cinsellik, kumar-benzeri öğeler, kullanıcılar arası iletişim, konum paylaşımı, mikro ödeme ve veri toplama gibi unsurların önceden etiketlenmesi; ebeveynlerin bilinçli karar vermesini kolaylaştırır. Türkiye’de bu konuda parçalı örnekler olsa da, özellikle oyun ekosistemi için açık, bağlayıcı ve yeknesak ulusal sistem halen geliştirmeye açıktır.
2. Ebeveyn kontrolü, güvenli profil ve varsayılan koruma
Çocukların erişiminin zorlaştırılmasında mutlak yasaklardan daha etkili olan araçlardan biri, sistem tasarımı içinde varsayılan korumalardır. Hukuken bunun zemini hem çocuk koruma ilkelerinden hem de güvenli internet yükümlülüklerinden çıkarılabilir. Örneğin çocuk hesabı açıldığında: yetişkin içerik önerilerinin kapalı gelmesi, oyun içi sohbetin sınırlandırılması, yüksek şiddet düzeyi içeren oyunların görünürlüğünün azaltılması, harcama limiti ve ebeveyn onayı gerekliliği, canlı yayın veya kullanıcı üretimli içeriklere erişimde ek doğrulama, gece saatlerinde kullanım sınırlaması gibi yöntemler çocukların erişimini fiilen zorlaştırır.
Bu tür önlemler, ifade özgürlüğüne doğrudan topyekûn sansür uygulamadan, çocuk odaklı koruma sağlaması bakımından hukuken daha savunulabilir niteliktedir. Anayasa Mahkemesi’nin erişim engellemenin son çare olması gerektiğine dair yaklaşımı da aslında bu tip daha hafif araçların geliştirilmesini teşvik eder.
3. URL bazlı erişim engelleme ve içeriğin çıkarılması
Özellikle suç teşkil eden, acil müdahale gerektiren veya çocuklar üzerinde ağır zarar doğurma ihtimali taşıyan içeriklerde URL bazlı erişim engelleme ve içeriğin çıkarılması önemli bir koruma aracıdır. 5651 sayılı Kanun’da da ideal olanın yayın bütününe değil, ihlal oluşturan kısma müdahale edilmesi olduğu kabul edilmiştir. Bu yöntem, örneğin: çocuk pornografisi, çocukların cinsel sömürüsünü içeren içerikler, aşırı şiddet görüntüleri, çocuklara açık canlı yayınlarda suç oluşturan içerikler, intihara veya ağır zarar verici davranışlara yönlendiren yayınlar bakımından etkili olabilir.
Ne var ki bu yöntem, genel olarak “şiddet içeren oyun kültürü” sorununu çözmez; daha çok spesifik içerik ve somut ihlal bazında işler. Yine de mevzuatsal araç setinin vazgeçilmez parçasıdır.
4. Reklam ve ticari iletişim sınırlamaları
Çocuklara yönelik veya çocukları etkileme ihtimali bulunan reklamlarda fiziksel, zihinsel, ahlaki, psikolojik ve toplumsal gelişimi olumsuz etkileyebilecek ifade ve görüntülere izin verilmemesi; çocukları tehlikeli davranışlara teşvik eden veya şiddet unsurları içeren reklamların yasaklanması; çocukların ebeveynlerini satın almaya zorlamaya yönlendirilmemesi gibi ilkeler, dijital oyun pazarlaması açısından da önemlidir. Özellikle uygulama içi satın almalar, “loot box” benzeri mekanikler, agresif reklam stratejileri ve çocuklara yöneltilen manipülatif tasarımlar bakımından bu alan daha da güçlendirilebilir.
5. Platform sorumluluğu ve çok aktörlü yönetişim
Anayasa Mahkemesi, internet içeriğiyle mücadelede uluslararası iş birliğinin ve çok aktörlü yaklaşımın önemine işaret etmektedir. Modern dijital ortamda yalnızca devletin veya yalnızca ebeveynin sorumluluğu yeterli değildir. İçerik sağlayıcı, yer sağlayıcı, erişim sağlayıcı, uygulama mağazası, oyun dağıtıcısı, reklam ağı ve ödeme sistemi sağlayıcısı birlikte ele alınmalıdır. Mevzuatsal önlem seti de buna göre çok katmanlı kurulmalıdır.
IV. Mevzuatsal Engeller ve Sınırlılıklar
1. Oyunlara özgü özel ve bütüncül bir kanuni rejimin bulunmaması
Türkiye’de çocukların şiddet içerikli dijital oyunlara erişimini özel olarak düzenleyen, kapsamlı bir “oyun hukuku” rejimi bulunmamaktadır. Mevcut sistem; yayın hukuku, ceza hukuku, internet hukuku, tüketici hukuku ve çocuk koruma hukukunun dağınık hükümlerinden beslenmektedir. Bu durumun en büyük sonucu, oyunların hukuken bazen “içerik”, bazen “yazılım”, bazen “yayın”, bazen “ürün”, bazen de “hizmet” olarak değerlendirilmesi ve denetim yetkilerinin parçalanmasıdır.
Özellikle çevrim içi çok oyunculu oyunlar, uygulama mağazaları ve platform temelli oyun servisleri bakımından hangi kurumun hangi ölçüde koruma standardı koyacağı konusu net değildir. Bu da mevzuatsal fırsatların uygulamada etkisizleşmesine neden olur.
2. “Zararlı içerik” tanımının parçalı ve belirsiz oluşu
Çocuk bakımından zararlı olabilecek şiddet içerikli oyunlar her zaman suç değildir; ama her suç teşkil etmeyen içerik de otomatik olarak serbest bırakılmamalıdır. Türk hukukundaki sorunlardan biri, bu gri alanda bağlayıcı ölçütlerin sınırlı olmasıdır. Özellikle: şiddetin yoğunluğu, ödüllendirilen saldırganlık, işkence ve vahşetin estetikleştirilmesi,
çocuk kullanıcıyla yetişkin kullanıcı etkileşimi, kumar-benzeri mekaniklerin çocuk üzerindeki etkisi, oyun içi sohbetin riskleri gibi unsurlar bakımından açık, teknik ve ölçülebilir kriterlere ihtiyaç vardır. Bu belirsizlik, hem idarenin hem de yargının karar alma sürecini zorlaştırır.
3. Erişim engellemenin ölçülülük sorunu
Anayasa Mahkemesi’nin açık biçimde ortaya koyduğu üzere, erişimin engellenmesi ağır bir müdahaledir ve son çare olmalıdır. Bu yaklaşım hukuk devleti bakımından doğrudur; ancak uygulamada çocuk koruma bakımından bir gerilim yaratır. Çünkü bazı içeriklerde hızlı ve güçlü müdahale gerekirken, ölçülülük ilkesi genel ve süresiz yasakları sınırlar. Bu da şu sonucu doğurur: Devlet çocukları korumak isterken ifade özgürlüğünü ve bilgiye erişimi gereksiz biçimde sınırlamamalıdır.
Dolayısıyla mevzuatsal engel, erişim engelleme yetkisinin varlığında değil; bu yetkinin hukuken dar yorumlanmak zorunda oluşundadır. Fakat aslında bu bir engelden çok, doğru tasarlanmamış bir sistemde yaşanan politika sorununu göstermektedir. Eğer yaş doğrulama, çocuk profili, görünür etiketleme, güvenli varsayılan ayarlar ve platform içi kısıtlar etkin çalışsa, erişim engelleme ihtiyacı daha dar bir alana sıkışacaktır.
4. İnternetin sınır aşan yapısı ve yabancı platformlar
Anayasa Mahkemesi’nin de belirttiği üzere internet ulusal sınırlar dışında işleyen, dağıtık, çok aktörlü ve teknik olarak karmaşık bir alandır. Şiddet içerikli oyunların büyük kısmı yabancı şirketlerce yayımlanmakta, yabancı uygulama mağazalarında dağıtılmakta ve küresel altyapılar üzerinden erişilmektedir. Bu nedenle sırf ulusal mevzuat çıkarmak, fiilî etkili denetim için her zaman yeterli olmaz.
Bu durum özellikle şuralarda sorun yaratır: yabancı oyun sağlayıcısının Türkiye’de temsilciliğinin olmaması, yaş doğrulama standartlarının küresel olması ve yerel hukukla uyumsuzluğu, oyun içi sohbet ve kullanıcı üretimli içeriklerin gerçek zamanlı denetiminin güçlüğü, VPN, ayna site, farklı mağaza hesapları gibi teknik aşma yolları.
5. Çocuk kategorisinin yeknesak ele alınması
Danıştay’ın isabetle vurguladığı gibi, 6 yaşındaki çocukla 16 yaşındaki ergenin aynı içerikten aynı biçimde etkilenmesi beklenemez. Buna rağmen uygulamada çoğu sistem “18 yaş altı” gibi kaba bir kategoriyle yetinmektedir. Bu durum hem aşırı korumacılığa hem de yetersiz korumaya yol açabilir. Oysa yaş gruplarına göre farklı erişim modelleri kurulması gerekir. Bu eksiklik, çocukların erişiminin zorlaştırılmasında hukuki standartların inceltilmesini zorunlu kılar.
6. 5651 sayılı Kanun m. 9’a ilişkin iptal kararının yarattığı yeniden düzenleme ihtiyacı
Verilen mevzuat verisine göre 5651 sayılı Kanun’daki m. 9 hükmünün Anayasa Mahkemesi tarafından iptal edildiği belirtilmektedir. Bu durum, kişilik hakları ve özel hayat alanındaki erişim engelleme rejiminin yeniden yapılandırılması ihtiyacını göstermektedir. Çocukların dijital ortamda maruz kaldıkları kimi ihlaller aynı zamanda özel hayat, kişilik hakkı ve görüntülerin yayılması gibi sorunlar doğurabildiği için, bu alandaki normatif yeniden kurulum çocuk korumasını da dolaylı olarak etkilemektedir. Özellikle siber zorbalık, çocuk görüntülerinin izinsiz paylaşılması, ifşa içerikleri ve dijital taciz vakaları bakımından daha açık ve güvenceli mekanizmalara ihtiyaç vardır.
V. Reform ve Politika Önerileri
1. Dijital oyunlar için özel bir yaş sınıflandırması ve dağıtım rejimi
Türk hukukunda şiddet içerikli oyunlar bakımından en önemli reform ihtiyacı, oyunlara özgü özel ve bağlayıcı bir sınıflandırma sistemidir. Bu sistem yalnızca “+18” etiketiyle sınırlı olmamalı; 0-7, 8-12, 13-15, 16-18 gibi ayrımlar yapmalı ve içerik nedenini de görünür kılmalıdır. Etiket sadece şiddet değil; korku, çevrim içi etkileşim, kumar-benzeri öğe, para harcama baskısı, cinsellik ve kullanıcı üretimli içerik riski gibi unsurları da göstermelidir.
2. Çocuk hesabı / çocuk profili zorunluluğu
Belirli platformlar bakımından çocuk kullanıcı profili açıldığında koruyucu ayarların varsayılan olarak aktif olması zorunlu kılınabilir. Bu, ifade özgürlüğünü daha az zedeleyen ama çocuğu daha etkili koruyan bir yöntemdir. Özellikle oyun platformları, video uygulamaları ve canlı yayın servisleri için çocuk profiline özel zorunluluklar getirilebilir.
3. Uygulama mağazaları ve oyun dağıtıcılarına pozitif yükümlülükler
Yalnızca içerik üreticisi değil, dağıtıcı da sorumlu hale getirilmelidir. Uygulama mağazası veya oyun satış platformu: yaş etiketini görünür sunmalı, Türkiye’de geçerli çocuk koruma standartlarına uyum göstermeli, ebeveyn bilgilendirme ekranı sunmalı, çocuk kullanıcılara yüksek şiddet içerikli oyunun doğrudan önerilmesini sınırlandırmalı, çocuk hesaplarında satın alma için güçlendirilmiş onay sistemi kullanmalıdır.
4. Erişim engellemeden önce kademeli müdahale sistemi
Anayasa Mahkemesi içtihadına uygun olarak, müdahale araçları kademelendirilmelidir:
- Etiketleme ve görünür uyarı
- Çocuk profilinde varsayılan kapama
- Yaş doğrulama ve ebeveyn onayı
- Algoritmik önerinin sınırlandırılması
- İçeriğin kaldırılması
- URL bazlı erişim engelleme
- Son çare olarak site geneline erişim engeli
Bu model hem çocuk korumasını güçlendirir hem de ölçülülük ilkesine daha uygun bir yapı kurar.
5. Kurumsal koordinasyon ve veri temelli politika
Bu alanın yalnızca mahkeme kararlarıyla yönetilmesi yeterli değildir. BTK, ilgili bakanlıklar, yayın düzenleyici kurumlar, tüketici otoriteleri, eğitim kurumları ve çocuk psikolojisi alanındaki uzmanlar arasında koordineli bir yapı kurulmalıdır. Ayrıca hangi yaş grubunun hangi içeriklerden nasıl etkilendiğine dair bilimsel veri üretilmelidir. Danıştay’ın yaş grubu bazlı değerlendirme yaklaşımı, bu reformun hukuki temelini zaten vermektedir.
VI. Genel Değerlendirme
Türkiye’de çocukların sanal alemde şiddet içerikli oyunlar ve diğer zararlı içeriklere erişiminin zorlaştırılması bakımından hukuken imkânsızlık değil, sistematik bütünlük eksikliği sorunu bulunmaktadır. Mevzuatta çocuk koruma ilkesi güçlüdür; internet içeriklerine müdahale araçları vardır; yayıncılık alanında yaşa uygunluk mantığı benimsenmiştir; suç teşkil eden içerikler bakımından cezai yaptırımlar mevcuttur; güvenli internet altyapısı hukuken desteklenmektedir. Buna karşılık oyunların hukuki statüsü, zararlı içerik ölçütlerinin teknik detayları, platformlara yüklenen pozitif yükümlülüklerin açıklığı ve yaş bazlı sınıflandırmanın standardizasyonu bakımından ciddi boşluklar vardır.
Bir başka ifadeyle, mevcut mevzuat çocukların korunması için temel taşları koymuştur; fakat bu taşlardan çocuk odaklı, çağdaş ve oyun-ekosistemine uygun bir bina henüz tam kurulmamıştır. Bu nedenle çözüm, yalnızca daha fazla erişim engeli kararı vermek değil; erişim engelini son çare olarak tutup, asıl olarak yaş sınıflandırması, platform yükümlülüğü, çocuk profili, görünür etiketleme, dağıtıcı sorumluluğu ve bilimsel yaş grubu analizine dayalı bir normatif mimari kurmaktır.

0 Yorum
Henüz yorum yok — ilk yorumu siz yapın!