DOLAR
44,8573
EURO
52,8184
ALTIN
6.966,26
BIST
14.587,93
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul
Az Bulutlu
17°C
İstanbul
17°C
Az Bulutlu
Pazartesi Açık
18°C
Salı Çok Bulutlu
19°C
Çarşamba Yağmurlu
13°C
Perşembe Hafif Yağmurlu
14°C

Prof. Dr. Nevzat Tarhan: Dijital bağımlılık yeni neslin en büyük tehdidi

BTÜ Konuşmaları’na katılan ünlü psikiyatrist Prof. Dr. Nevzat Tarhan, yapay zekânın insan psikolojisi ve aile yapısı üzerindeki tesirlerini anlatarak dijital bağımlılığın global bir tehdide dönüştüğünü söyledi. “Yapay zekâ şuurlu bir varlık değil, yanlış kullanılırsa bilhassa gençler için büyük tehlike” dedi.

Prof. Dr. Nevzat Tarhan: Dijital bağımlılık yeni neslin en büyük tehdidi
21 Kasım 2025 11:42
8

BURSA (İGFA) – Bursa Teknik Üniversitesi tarafından düzenlenen BTÜ Konuşmaları’nın bu haftaki konuğu, Üsküdar Üniversitesi Kurucu Rektörü ve Psikiyatrist Prof. Dr. Nevzat Tarhan oldu. Mimar Sinan Yerleşkesi Turkuaz Salon’daki programa BTÜ Rektörü Prof. Dr. Naci Çağlar, Yıldırım Kaymakamı Metin Esen, akademisyenler ve çok sayıda öğrenci katıldı.

Prof. Dr. Gazanfer Anlı’nın moderatörlüğünde gerçekleşen “Yapay Zekâ, Toplumsal Medya ve Bağımlılık Döngüsü” başlıklı aktiflikte Tarhan, yapay zekâ psikolojisi, dijital bağımlılık, kültürel dönüşüm ve aile yapısının geleceği üzerine değerli değerlendirmelerde bulundu.

Yapay zekânın insanlık tarihinde büyük bir kırılma yarattığını belirten Tarhan, “Matbaanın bulunması nasıl tarihi değiştirdiyse, yapay zekâ da emsal bir dönüşüm yaratacak” dedi. Lakin teknolojinin şuurlu kullanılmaması hâlinde risklerin büyüdüğünü vurgulayan Tarhan, yapay zekânın bir “bilinç” taşımadığının altını çizdi: “İnsandan çok şey biliyor olabilir fakat insan olamaz. Ona ebeveyn üzere davranırsanız sizi yönetir; liderlik sizde olursa size hizmet eder.”

Yanlış kullanımın bilhassa ruhsal kırılganlık yaşayan bireylerde psikoza yol açabileceğini belirten Tarhan, yapay zekâya sorgulamadan bağlanan bireylerin risk altında olduğunu söyledi: “Kullanım şuuru kaide.”

ERGENLİK ÖNCESİ DİKKAT UYARISI

Tarhan, şuur gelişimi tamamlanmamış çocukların yapay zekâya çok bağlandığında halüsinasyon gibisi tesirler yaşayabildiğini tabir ederek, “Özellikle 13 yaş öncesi ekran maruziyeti sonlandırılmalı. Aileler kesinlikle kontrol sağlamalı. Haftada bir gün ailecek dijital detoks yapılmalı” teklifinde bulundu.

Dijital bağımlılığın unsur ve kumar bağımlılığıyla birebir beyin düzeneğini tetiklediğini belirten Tarhan, dopamin merkezli haz arayışının bireyleri yalnızlaştırdığını söyledi:
“Hazcılık arttıkça ömür hedefi zayıflıyor; bencillik, mutsuzluk ve aile yapısında bozulma artıyor. Dünya genelinde birinci beş yıldaki boşanma oranları yükseliyor, tek ebeveynli aile sayısı artıyor. Bu tablo global bir tehdit.”

Toplumları zayıflatmanın kültürel ve ruhsal müdahalelerle başladığını söyleyen Tarhan, “Zihinsel dönüşüm olmadan toplumsal dönüşüm olmaz. Aile yapımıza sahip çıkmalıyız” dedi.

“YAPAY ZEKÂ TERAPİST OLAMAZ”

Yapay zekâ dayanaklı terapi tartışmalarına da değinen Tarhan, “Terapinin özü bilgi değil, kişinin gereksinimi olan yanlışsız bilgiyi seçmektir. Yapay zekâ şuurlu bir varlık olmadığı için teşhis koyamaz, muayene edemez. Terapist olamaz fakat terapiste yardımcı bir araç olabilir” tabirlerini kullandı.

Program, öğrencilerin sorularının akabinde BTÜ Rektörü Prof. Dr. Naci Çağlar’ın Tarhan’a teşekkür plaketi takdim etmesi ve toplu fotoğraf çekimiyle sona erdi.

ETİKETLER: , , ,
Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.