"ChatGPT sizi aptal yapar", "AI beyni zarar verir", "MIT araştırması: yapay zeka bilişsel gerilemeye neden olur". Son aylarda, bu tür alarmist başlıklar genel medya organlarını domine ederek, eğitim ve iş hayatında yapay zeka kullanımına ilişkin asılsız korkuları körükledi. Peki bilim ne diyor? Literatürün eleştirel bir analizi, çok daha karmaşık ve özellikle de daha iyimser bir gerçekliği ortaya koyuyor.
MIT Media Lab'ın "Your Brain on ChatGPT" adlı çalışması, çoğu zaman sonuçların çarpıtılmış yorumlarına dayanan bir dizi alarmist medya haberine yol açtı. Ön baskı olarak yayınlanan (yani hakem değerlendirmesinden geçmemiş) bu çalışmaya Boston bölgesinden sadece 54 kişi katıldı ve bunlardan sadece 18'i önemli oturumu tamamladı.
Yetersiz örneklem: Toplam 54 katılımcıyla, çalışma genelleştirilebilir sonuçlar çıkarmak için gerekli istatistiksel güce sahip değildir. Araştırmacıların da kabul ettiği gibi, "örneklem küçük" ve "homojen: MIT çevresindeki insanlar kesinlikle dünyadaki insanların dağılımını yansıtmamaktadır".
Sorunlu deneysel tasarım: Katılımcılar sadece 20 dakika içinde SAT deneme sınavı yazmak zorundaydılar - bu yapay bir kısıtlamaydı ve doğal olarak düşünceli entegrasyon yerine kopyala-yapıştır yapmaya yöneltti. Bu tasarım, "son teslim tarihi yarın" veya "video oyunu oynamayı tercih ederim" gibi "gerçek hayattaki doğal kısıtlamaları iyi taklit ediyor", ancak pedagojik açıdan bilgilendirilmiş bir AI kullanımı temsil etmiyor.
Aşinalık etkisinin karıştırıcı etkisi: "Sadece beyin" grubu, ilk üç oturumda göreve aşina hale gelerek kademeli iyileşmeler gösterdi. AI grubu dördüncü oturumda yardım almadan yazmak zorunda kaldığında, pratik yapmanın faydası olmadan görevi ilk kez yerine getiriyordu.
Medya, MIT'nin alarm verici sonuçlarına odaklanırken, çok daha titiz bir araştırma, radikal olarak farklı sonuçlar ortaya koyuyordu.
Kwame Nkrumah Bilim ve Teknoloji Üniversitesi'nde yapılan bir araştırma, 125 üniversite öğrencisini bir dönem boyunca kontrollü randomize bir tasarımla takip etti. Sonuçlar, MIT'nin sonuçlarıyla doğrudan çelişmektedir:
Eleştirel Düşünme: ChatGPT'yi kullanan öğrenciler 28,4 puandan 39,2 puana (+%38) yükselerek kontrol grubunu (24,9 puandan 30,6 puana, +%23) önemli ölçüde geride bıraktı.
Yaratıcı Düşünce: ChatGPT grubu için daha da çarpıcı artışlar, 57,2'den 92,0 puana (+%61), ölçülen altı boyutta da iyileşmeler: cesaret, yenilikçi araştırma, merak, öz disiplin, şüphe ve esneklik.
Düşünsel Düşünce: 35,1 puandan 56,6 puana (+%61) önemli bir artış kaydedildi, bu da öz-düşünme ve üst-bilişsel düşünme becerilerinde artış olduğunu gösteriyor.
Önemli metodolojik farklılıklar: Gana'daki çalışma, geçerliliği kanıtlanmış ölçekler (Cronbach α > 0,89), doğrulayıcı faktör analizi, ön test puanları için ANCOVA kontrolleri kullanmış ve - en önemlisi - ChatGPT'yi uygun pedagojik destekle gerçek bir eğitim ortamına entegre etmiştir.
Mevcut en titiz çalışma, Boston Consulting Group'un 758 danışmanını önceden kaydedilmiş ve kontrol edilmiş bir deneye dahil etti. Sonuçlar çok netti:
Çalışmanın ortak yazarı Ethan Mollick şöyle diyor: "ChatGPT'yi kullanan danışmanlar, kullanmayan danışmanları her açıdan büyük farkla geride bıraktı. Performansı ölçtüğümüz her alanda."
Yükseköğretimde yapay zeka ile ilgili araştırmaların sistematik bir incelemesi, önemli faydalar ortaya koymuştur:
401 Çinli üniversite öğrencisi üzerinde yapılan ve yapısal denklem modelleri kullanılan çok uluslu bir araştırma, "hem yapay zeka hem de sosyal medyanın akademik performans ve zihinsel sağlık üzerinde olumlu bir etkisi olduğunu" doğruladı.
MIT çalışmasının medyada yer alması, sansasyonel haberlerin halkın bilime ilişkin anlayışını nasıl çarpıtabileceğinin sembolik bir örneğidir.
Tipik başlık: "MIT araştırması ChatGPT'nin insanları aptallaştırdığını gösteriyor"
Gerçek: 54 katılımcıyla yapılan, hakem tarafından incelenmemiş ön araştırma, yapay görevlerde sinirsel bağlantılarda farklılıklar buldu.
Tipik başlık: "AI beyni zarar veriyor"
Gerçek: EEG, hasar yerine nöral verimlilik olarak yorumlanabilecek farklı aktivasyon modelleri gösteriyor.
Tipik başlık: "ChatGPT bilişsel gerilemeye neden oluyor"
Gerçek: Ciddi metodolojik sınırlamaları olan bir çalışma, daha titiz araştırmalarla çelişiyor.
MIT'nin baş araştırmacısı Nataliya Kosmyna, LLM'lerin makaleyi doğru bir şekilde özetlemesini engellemek için makaleye "tuzaklar" yerleştirdiğini itiraf etti. İronik bir şekilde, birçok sosyal medya kullanıcısı daha sonra LLM'leri kullanarak makaleyi özetledi ve paylaştı, böylece bu araçların pratik yararını istemeden kanıtladı.
Eğitimde AI üzerine yapılan ciddi araştırmalar, zorlukların varlığını inkar etmez, ancak bunları daha sofistike bir şekilde ele alır. Harvard çalışmasının "dalgalı teknoloji sınırı" kavramı, AI'nın bazı görevlerde mükemmel performans gösterirken, görünüşte benzer diğer görevlerde sorunlu olabileceğini göstermektedir.
Uygulamanın zamanlaması: Kanıtlar, AI'yı uygulamaya koymadan önce temel becerileri geliştirmek faydaların en üst düzeye çıkarılmasını sağlayabileceğini göstermektedir. MIT'nin kendi çalışmasında da belirtildiği gibi, "Brain-to-LLM" katılımcıları "üstün hafıza gücü ve oksipital-parietal ve prefrontal alanların aktivasyonu" sergilemiştir.
Pedagojik tasarım: Gana'da yapılan araştırma, yapay zekayı uygun eğitim iskelesi, iyi tasarlanmış komutlar ve net öğrenme hedefleriyle entegre etmenin önemini ortaya koymaktadır.
Önemli bağlam: Yapay zekanın yapay görevlerde değil, gerçek eğitim bağlamlarında kullanılması, sonuçları önemli ölçüde farklılaştırmaktadır.

Yanlış medya haberleri sadece akademik bir sorun değildir - potansiyel olarak faydalı teknolojilerin benimsenmesi üzerinde gerçek sonuçları vardır.
Kosmyna'nın da itiraf ettiği gibi: "Tam bir hakem değerlendirmesi beklemek yerine şimdi yayınlamaya karar vermemin nedeni, 6-8 ay sonra bir politikacının 'GPT anaokulunu yapalım' diye karar vereceğinden korkmamdır. Bunun kesinlikle olumsuz ve zararlı olacağını düşünüyorum."
Bu açıklama, araştırmanın bilimsel tarafsızlığı konusunda kırmızı bayraklar dikilmesi gereken bir savunuculuk motivasyonunu ortaya koymaktadır.
28.698 yazılım mühendisiyle yapılan bir araştırma, sadece %41'inin AI araçlarını denediğini, kadınlar (%31) ve 40 yaş üstü mühendisler (%39) arasında ise bu oranın daha da düşük olduğunu ortaya koydu. Alarmist başlıklar bu önyargılara katkıda bulunuyor ve potansiyel olarak birçok çalışanı AI'nın kanıtlanmış faydalarından mahrum bırakıyor.
AI şirketleri, teknolojiye olan heyecanlarını, sınırları hakkında dürüst iletişim kurarak dengelemelidir. Ciddi araştırma sonuçları, AI'nın dikkatli bir şekilde uygulandığında gerçek faydalar sağladığını, ancak aynı zamanda aşağıdakilerin de gerekli olduğunu göstermektedir:
Olumsuz başlıklara savunmacı bir şekilde tepki vermek yerine, yapay zeka endüstrisi şunları yapmalıdır:
MIT çalışmasının ve medyada yer alan haberlerin hikayesi, yapay zeka ekosistemindeki tüm paydaşlar için önemli dersler sunuyor.
"Haber değeri olan" sonuçları yayınlama baskısı, metodolojik titizliği tehlikeye atmamalıdır. Ön baskıları bilimsel tartışmalar için yararlı olabilir, ancak bunların sınırları konusunda dikkatli bir iletişim gerektirir.
Halk, aşağıdakileri birbirinden ayıran doğru haberleri hak ediyor:
Eğitimde yapay zekanın geleceği, son moda sansasyonel başlıklara verilen tepkilere değil, sağlam kanıtlara dayanan düşünceli uygulamalara bağlıdır.
Gazete manşetlerinde tartışmalar sürerken, ciddi araştırmalar AI'nın yüksek kaliteli öğrenme deneyimlerine erişimi demokratikleştirme konusundaki gerçek potansiyelini ortaya koyuyor. Gana'da yapılan araştırma, AI'nın uygun şekilde uygulandığında şunları yapabileceğini gösteriyor:
Soru, yapay zekanın eğitimi dönüştürüp dönüştürmeyeceği değil, bu dönüşümü nasıl sorumlu bir şekilde yönlendirebileceğimizdir. Cevap, sansasyonel manşetlerde değil, titiz bilimsel çalışmalarda yatmaktadır.
Kaynaklar ve Referanslar:
AI ile ilgili ciddi bilimsel araştırmalar hakkında güncel bilgileri almak için (sansasyonel haberler olmadan) şirket blogumuzu takip edin ve newsletter abone olun.