Yapay Zeka

Nevzat Tarhan Yapay Zeka Risklerini Anlattı

TeknolojiWins Haber Merkezi
  • 22 Aralık 2025
  • Okuma süresi: 4 dakika
Nevzat Tarhan Yapay Zeka Risklerini Anlattı

Prof. Dr. Nevzat Tarhan, yapay zeka kullanımının risklerini değerlendirdi.

Üsküdar Üniversitesi Kurucu Rektörü, Psikiyatrist Prof. Dr. Nevzat Tarhan, yapay zeka kullanımının psikoloji ve toplum üzerindeki etkilerine ilişkin değerlendirmelerinde, teknolojinin “nötr bir araç” olarak ele alınması gerektiğini vurguladı. Tarhan’a göre yapay zeka, doğru amaçla kullanıldığında üretkenliği artıran güçlü bir destek mekanizması sunuyor; kontrolün kullanıcıdan çıkması halinde ise yanlış yönlendirme, bağımlılık ve “yankı odası” etkisi gibi riskler büyüyor.

Tarhan, özellikle psikolojik destek arayışında yapay zekaya başvurmanın hassas bir konu olduğuna dikkat çekti. Yapay zekanın sunduğu bilgilerin, klinik karar veya kişisel sağlık yönlendirmesi olarak alınmasının riskli sonuçlar doğurabileceğini belirten Tarhan, içeriklerin bir klinisyen veya alan uzmanı tarafından doğrulanmasının kritik önem taşıdığını ifade etti. Yapay zekanın empati, niyet okuma ve duygusal rezonans gibi insana özgü becerilere sahip olmadığını söyleyen Tarhan, bu eksikliğin kırılgan gruplarda yanlış kanaatlerin güçlenmesine yol açabileceğini dile getirdi.

“Yankı odası” etkisi ve yalnızlık paradoksu

Tarhan, yapay zekanın “yankı odası” etkisi yaratabildiğini belirterek, bireylerin dijital ortamda kendi düşüncelerinin yansımasıyla daha sık karşılaşmasının yalnızlık hissini derinleştirebileceğini söyledi. Kalabalıklar içinde hissedilen yalnızlığın küresel bir olgu olduğunu hatırlatan Tarhan, dijital platformların yüzeysel bağları artırırken derin ilişkileri zayıflatabildiğini, bunun da temel güven duygusunu aşındırabildiğini ifade etti.

Dopamin döngüsü ve dijital bağımlılık uyarısı

Tarhan’ın öne çıkardığı bir diğer başlık, dijital bağımlılık ve dopamin mekanizması oldu. Dijital içerik tüketiminin “kaydırma etkisi” ile sürekli ödül beklentisini tetikleyebildiğini söyleyen Tarhan, bu döngünün haz eşiğini yükseltebildiğini, zamanla daha yoğun uyarana ihtiyaç doğurduğunu aktardı. Yapay zekanın yanlış kullanımının “dijital afyon” etkisi yaratabileceği uyarısında bulunan Tarhan, kontrolün kullanıcıda kalmasının belirleyici unsur olduğunun altını çizdi.

“Asistan olmalı, kaptan olmamalı”

Yapay zekanın eğitim ve üretkenlik süreçlerinde destekleyici rol üstlenebileceğini belirten Tarhan, öğrencilerin yapay zekadan bilgi almasının mümkün olduğunu; ancak çıktıyı kendi yorumlarıyla geliştirmelerinin öğrenme açısından gerekli olduğunu söyledi. Tarhan’a göre yapay zekanın rolü “asistan” düzeyinde kalmalı; karar mekanizması ve etik sorumluluk her zaman insanda olmalı.

Sağlıkta katkı alanı: kişiye özel tedavi destekleri

Tarhan, sağlıkta yapay zekanın tanı ve tedavi süreçlerine katkı sunduğu alanlara da değindi. Üsküdar Üniversitesi NPİSTANBUL Hastanesi’nde beyin sinyalleri ve nörogörüntüleme verileri gibi kaynaklardan yararlanan, tanıyı destekleyici sistemlere yönelik çalışmalar yürütüldüğünü ve bu yaklaşımın kişiye özel tıp uygulamalarına katkı sağlayabildiğini ifade etti.

Algoritma şeffaflığı ve etik standartlar

Tarhan, teknoloji şirketlerinin etik standartları göz ardı etmesi halinde toplumsal risklerin büyüyebileceğini belirterek, algoritma şeffaflığının önemine dikkat çekti. Gizli algoritmalarla yönlendirme yapılmasının güvenlik ve etik açısından kritik bir başlık olduğuna işaret eden Tarhan, regülasyon ihtiyacının küresel ölçekte daha görünür hale geldiğini söyledi.

Yapay zekanın toplumsal etkisi, hızla artan kullanım oranlarıyla birlikte “teknoloji okuryazarlığı” kavramını daha stratejik bir noktaya taşıyor. Prof. Dr. Nevzat Tarhan’ın vurguladığı yankı odası, bağımlılık döngüsü ve doğrulama ihtiyacı, kurumlar açısından da yeni bir risk alanına işaret ediyor. Sağlık, eğitim ve iş dünyasında yapay zeka destekli süreçler yaygınlaşırken, güvenli kullanım standartları, etik çerçeve ve şeffaflık prensipleri rekabet avantajının yanı sıra kurumsal itibarı da belirleyen unsurlar arasında yer alıyor.

Yorum yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir