Geçtiğimiz hafta bir dostumuzun evinde tanıştığımız 11 yaşındaki bir kız çocuğunun yapay zekâ hakkında sorduğu sorular ve bu araçlarla kurduğu ilişki, bu yazıyı kaleme alma ihtiyacını doğurdu. Çocukların yapay zekâ botlarıyla kurduğu bağ, ebeveynler için artık sıradan bir merak konusu değil; üzerine dikkatle eğilmesi gereken yeni bir sorumluluk alanı.
Nitekim ABD’de 16 yaşındaki bir gencin bir sohbet botuyla etkileşimlerinin ardından intihara sürüklendiği iddiasıyla açılan dava, bu riskin acı bir hatırlatıcısı oldu. Umarız bu trajedi, dijital çağda gecikmiş regülasyonların hızlanması için bir kıvılcım işlevi görür.
Dijital dünya bir tiyatro sahnesi: Işıklar üzerimize çevrili, ama kuklacıları göremiyoruz. Her tıklama, her kaydırma, her “beğeni” görünmez algoritmaların iplerinde sallanıyor. Haber akışlarımız, önerilen videolarımız, hatta gündemimiz bile bu gölgeli ağların elinde şekilleniyor. Peki, bu ağları kim örüyor?
Algoritmaların karar mekanizmaları, teknoloji devlerinin “ticari sır” kalesinde saklıyken kullanıcılar devasa bir dijital labirentin içinde yolunu kaybediyor.
Dijital okuryazarlık yalnızca cihazı kullanmak değil; labirentin haritasını çizmek, algoritmaların niyetini sorgulamak ve sistemlerden hesap sorabilmek demek.
Bugün asıl mesele şu: Çıkış yolunu bireysel çırpınışlarla mı bulacağız, yoksa şirketlerin şeffaflığı ve otoritelerin zorunlu reformları mı yolumuzu aydınlatacak? Biz kendi irademizi mi kullanıyoruz, yoksa bir makinenin kurguladığı senaryoda mı rol alıyoruz?
Kara Kutu: Algoritmaların Görünmeyen Yüzü
Teknoloji devleri algoritmalarını bir sihirbazın kara kutusu gibi işletiyor: Sonuçlar ortada, ama iç mekanizma görünmez. 2018’deki Cambridge Analytica skandalı, milyonlarca kullanıcının verisinin seçim mühendisliği için nasıl bir silaha dönüştürülebileceğini gözler önüne sermişti.
2023’te Tik Tok’un veri toplama pratikleri, kullanıcı davranışlarını neredeyse mikroskobik ayrıntılarla izlemesi nedeniyle Avrupa Birliği’nde soruşturma konusu oldu.
2024’te X’in içerik öneri algoritmalarının kullanıcıları kutuplaştırıcı içeriklere yönlendirdiği iddiaları gündemi sarstı.
Ama mesele sadece siyaset ya da mahremiyetle de sınırlı değil. Netflix’in öneri algoritmaları yerel yapımları geri plana iterken, kültürel çeşitlilik de görünmez bir erozyona uğruyor.
Amazon’un fiyat algoritmaları bazı ülkelerde rekabet ihlalleri ile suçlanıyor; kullanıcılar aynı ürünü farklı fiyatlardan görebiliyor. Instagram’ın algoritmaları ise özellikle gençler arasında beden algısını bozduğu, kaygıyı ve yalnızlık hissini körüklediği için psikolojik araştırmaların odağına girdi. Bu konuda davalar açılmış durumda.
Tüm bu örnekler, buzdağının yalnızca görünen kısmı. Algoritmalar, biz farkına varmadan gündelik kararlarımızı, kültürel ufkumuzu ve toplumsal dokumuzu şekillendiriyor. *OECD’nin 2025 Dijital Okuryazarlık Raporu da bu şeffaflık eksikliğinin bireyleri manipülasyona açık hale getirdiğini ve toplumsal güveni aşındırdığını vurguluyor.
Çözüm ne? Teknoloji şirketlerinin zorunlu şeffaflık raporları yayınlaması, algoritmalarını kullanıcı dostu arayüzlerle açıklaması en hızlı ve gerekli ilk adım olabilir. Örneğin sosyal medya platformları, öneri algoritmasının hangi kriterlere dayandığını –konum, beğeniler, etkileşim süresi gibi– sade bir biçimde gösterebilirler.
Ama daha ötesi de var: Akademi ve bağımsız kurumların algoritmaları denetlemesi, devletlerin “algoritmik etki raporları” zorunluluğu getirmesi ve kullanıcıların kendi akış tercihlerini belirleyebilecekleri regülasyonların çıkarılması.
Ancak asıl soru ise hâlâ yakıcı: Bir algoritmanın mantığını bilmeyen kullanıcı, gerçekten kendi sesini mi dinliyor, yoksa makinenin yankısında kayboluyor mu?
Etik ve Regülasyon: Teknolojinin Vicdanı Nerede?
Dijital teknolojiler bir Pandora kutusu: İçinden ne çıkacağı, yatırımcıların ve mühendislerin etik anlayışına bırakılmış durumda. 2020’de Amazon’un işe alım algoritmasının kadın adayları sistematik biçimde dışlaması, yalnızca teknik bir hata değil; erkek egemen özgeçmişler ile beslenen bir yapay zekânın toplumsal önyargıları tekrar üretmesiydi. 2023’te MIT Media Lab ve NIST raporları, yüz tanıma algoritmalarının siyahi bireyleri beyazlara kıyasla çok daha yüksek oranlarda yanlış tanımladığını gösterdi. Bu önyargılar, kolluk kuvvetlerinin yanlış tutuklamalarına kadar uzanan zincirleme sonuçlar doğurdu. 2019’da Science dergisinde yayımlanan Obermeyer ve arkadaşlarının çalışması ise sağlık sektöründe kullanılan risk değerlendirme algoritmalarının siyahi hastaları daha az tedaviye yönlendirdiğini ortaya koydu. Algoritmalar “tarafsız” değildi; tam tersine, toplumsal adaletsizliklerin yankısını büyütüyordu.
Bu vakalar, teknolojinin yalnızca bir araç değil, vicdansız bir makineye dönüşme tehlikesi taşıdığını açıkça ortaya koyuyor. Genetik araştırmalarda etik kurulların zorunlu denetimi nasıl bilimsel sürecin ayrılmaz bir parçası ise, dijital dünyada da benzer mekanizmalar artık kaçınılmaz. İnsan genomuna müdahale eden bir araştırmacı, etik onay olmadan laboratuvara giremez; peki toplumsal davranışlarımızı şekillendiren algoritmalar için neden benzer bir sınır çizilmesin?
Dijital dünyada bağımsız etik konseyler, teknolojinin vicdanı olmalı. Geliştiriciler, hükümetler, akademisyenler, sivil toplum ve kullanıcı temsilcilerinden oluşan bu kurullar, projeleri tasarımdan uygulamaya kadar denetlemeli. Yüz tanıma sistemleri veya işe alım algoritmaları devreye alınmadan önce, önyargı riskleri ve toplumsal etkiler titizlikle analiz edilmeli. Yalnızca teknik doğruluk değil, etik sorumluluk da testten geçirilmelidir.
Frontiers’in 2025 raporu, dijital okuryazarlığın artık yalnızca teknik beceri değil, etik farkındalık da kapsadığını vurguluyor. Ancak bireysel farkındalık, sistemsel regülasyonlarla desteklenmediğinde bir duvara çarpıyor. İşte asıl soru burada düğümleniyor: Etik bir teknoloji, sermayenin kar hırsıyla mı şekillenecek, yoksa kolektif bir vicdanın rehberliğinde mi inşa edilecek?
Eğitimde Dijital Okuryazarlık: Geleceği Kim Şekillendirecek?
Dijital okuryazarlık artık bir lüks değil; toplumsal dönüşümün omurgası. Ancak bu omurgayı inşa etmesi gereken eğitim sistemleri hâlâ tökezliyor. Dokuz yaşındaki çocuklar bile ödevleri için yapay zekâ araçlarını kullanıyor, onlarla sohbet ediyor. Ama bu araçlar, bilinçsiz ellerde keskin ve tehlikeli bir bıçağa dönüşebiliyor. ABD’de 16 yaşındaki bir gencin bir sohbet botuyla yaptığı konuşmalar sonrası intihara sürüklendiği iddiasıyla açılan dava, bu riskin trajik bir örneği. Benzer şekilde profesyonel yöneticilerin şirket sırlarını yapay zekâ tabanlı araçlara emanet etmesi, hatta özel yaşamlarına dair tavsiyeler alması, bu teknolojilerin sınırlarını ve güvenliğini sorgulatıyor.
Finlandiya bu noktada bir fener gibi parlıyor. 2013’ten bu yana medya okuryazarlığını ulusal müfredata entegre ederek çocuklara altı yaşından itibaren yanlış bilgiyi ayırt etme, kaynak analizi yapma ve çevrimiçi içerikleri eleştirel değerlendirme becerisi kazandırıyor. Helsinki Times’a göre bu yaklaşım Finlandiya’yı dünyanın en dijital okuryazar toplumlarından biri yaptı; OECD’nin 2024 çalışmasında Fin öğrencilerin yanlış bilgiyi tanıma oranı küresel ortalamanın yüzde 30 üzerinde çıktı. Japonya da 2020’de başlattığı “Dijital Dönüşüm Politikası” ile ilkokuldan lise düzeyine kadar kodlama, veri güvenliği ve çevrimiçi etik eğitimini zorunlu hale getirdi. Bugün Japon liselerinde öğrenciler, sosyal medya paylaşımlarının gizlilik etkilerini analiz eden projeler geliştiriyor. Estonya ise vatandaşlık ve e-devlet uygulamalarını eğitimle birlikte kurgulayarak gençlere “dijital vatandaşlık” bilinci aşılıyor.
Türkiye’de ise müfredatlar bu becerileri hâlâ sistematik olarak entegre etmekten uzak. Oysa eleştirel düşünme, veri gizliliği ve etik teknoloji kullanımı artık temel bir eğitim hakkı. Frontiers’in 2025 raporuna göre öğretmenlerin dijital okuryazarlık düzeyi, öğrencilerin öğrenme çıktılarında belirleyici rol oynuyor. Öğretmenler yapay zekâ araçlarının potansiyelini ve risklerini kavrayamadığında, öğrenciler de bu labirentin içinde kaybolmaya mahkûm oluyor.
Dijital okuryazarlık yalnızca bir “omurga” değil, aynı zamanda toplumu yanlış bilgiye ve manipülasyona karşı koruyacak bir “bağışıklık sistemi”dir. Peki bu sistemi kim inşa edecek? Devletler mi, öğretmenler mi, yoksa bireylerin kendi öğrenme çabaları mı? Asıl mesele şu soruda düğümleniyor: Dijital okuryazarlık eğitimi, bireyleri güçlendiren bir araç mı olacak, yoksa sistemleri köklü bir dönüşüme zorlayan bir baskı mı?
Sonuç: İllüzyonu Kırmak, Köprüyü Kurmak
Dijital okuryazarlık, bireyin yalnız başına yolunu bulacağı bir fener değil; toplum, devlet ve şirketlerin birlikte inşa edeceği bir köprü. Bu köprü, bilgiyle kandırılma ile bilinçle özgürleşme arasındaki uçurumu aşmanın tek yolu.
Teknoloji devleri, algoritmalarını birer kara kutu olarak saklamak yerine şeffaflaştırmalı; kullanıcıların verilerinin nasıl işlendiğini gösteren sezgisel arayüzler geliştirmeli. Hükümetler, Finlandiya’nın müfredat modelinden ilham alarak dijital okuryazarlığı eğitimin omurgasına yerleştirmeli, çocuklara altı yaşından itibaren eleştirel düşünme ve etik farkındalık kazandırmalı. Japonya’nın veri gizliliğini merkeze alan yaklaşımı, bireylerin kendi haklarını savunma bilincini artırırken, Estonya’nın dijital vatandaşlık modeli de toplumsal düzeyde sorumluluk paylaşımının mümkün olduğunu gösteriyor.
Dijital okuryazarlığın yalnızca teknik bir beceri değil, aynı zamanda etik ve eleştirel bir duruş olduğu unutulmamalı.
OECD’nin 2025 Dijital Eğitim Raporu bireysel farkındalık ile sistemsel reformlar birleştiğinde bilgi ekosisteminin daha dirençli hale geldiğini ortaya koyması bu konudaki yol haritası için referans niteliğinde.
Öte yandan bireyler de yalnızca tüketici değil, talep eden yurttaş olmalı: algoritma şeffaflığı isteyen kampanyalara katılmak, şirketlerden hesap verebilirlik talep etmek, bu köprünün taşlarını döşemenin yollarından yalnızca birkaçı.
Dijital dünya bir illüzyon değil; kolektif çabayla şekillenecek bir gerçeklik. Ve asıl kritik soru şurada düğümleniyor: Bu dönüşümü başlatacak olan senin sözün mü olacak, yoksa sessizliğin mi?
*https://www.oecd.org/en/publications/trends-shaping-education-2025_ee6587fd-en.html



