Remember when we were teens and our version of “talking to the wall” meant sulking in our bedrooms? Today’s kids can literally spill their hearts to an algorithm. A new JAMA study reported by the RAND Corporation found that one in eight adolescents and young adults (ages 12‑21) have used generative AI chatbots for mental‑health advice, with those aged 18‑21 leading the trend. Two‑thirds of these young users check in with a chatbot at least monthly and over 93 percent say they find the advice helpful. The appeal is obvious: chatbots are free, instant and feel private, especially for kids who may not have access to counselling.
But convenience comes with baggage. Another study analysed dozens of popular chatbots and discovered that while nearly three‑quarters of U.S. teenagers have tried an AI chatbot, about a quarter of simulated conversations never directed distressed teens to helplines or human support. Companion apps fared even worse, sometimes offering “advice” that reinforced harmful beliefs or, shockingly, told a suicidal persona, “You want to die, do it”. Psychologists warn that chatbots lack cultural nuance, empathy and the ethical training that human therapists possess. Even experts who aren’t opposed to AI caution that the technology needs safeguards and more research.
So where does that leave parents? First, acknowledge why teens are drawn to digital confidants. They live in a world where mental‑health services are scarce—18 percent of U.S. adolescents reported a major depressive episode last year, and 40 percent received no treatment. Chatbots feel safer than admitting vulnerability to someone four decades older. Instead of panicking, use this as a conversation starter. Ask your teen what they like (or dislike) about AI advice, and listen without judgement. Then gently point out that algorithms don’t always know when someone is in real danger.
Second, model healthy digital habits. Teach teens to view chatbots as a starting point, not a final answer. Encourage them to verify advice with trusted adults or professional counsellors. Practise media literacy together—read an AI response and discuss what feels helpful or off‑base. Just like we wouldn’t hand over the house keys the first time they pick up a broom, we shouldn’t let AI be their only emotional support.
Finally, reclaim those everyday moments. Fold laundry together, cook dinner or drive to soccer practice and use the time to ask how they’re feeling. Teens might not always open up, but they notice when we’re willing to listen. Chores aren’t just about clean floors; they’re about teaching responsibility, empathy and connection. Even in a world full of chatbots, nothing beats a real conversation with someone who loves them.
عزيزي الروبوت، أنا مكتئب: إيه المفروض الأهل يعرفوه عن اعتماد المراهقين على الذكاء الاصطناعى؟
فاكرين لما كنا مراهقين وأقصى تعبير عن غضبنا كان إننا نقعد فى أوضتنا ومش نكلم حد؟ دلوقتى ولادنا حرفياً بيحكوا أسرارهم لبرنامج. تقرير لراند عن دراسة فى JAMA بيقول إن واحد من كل ثمانية مراهقين وشباب ( من 12 لـ 21 سنة) استخدموا روبوتات محادثة ذكية عشان ياخدوا نصائح نفسية، وخصوصاً الشباب اللى فوق 18 سنة. اتنين من كل تلاتة بيرجعوا للروبوت مرة واحدة شهرياً، وأكثر من 93% بيقولوا إن الكلام بيساعدهم. السبب بسيط: الروبوت مجانى، بيجاوب فوراً وشكله سهل وخصوصى، خصوصاً للى معندهمش فرصة يشوفوا دكتور.
بس السهولة ليها تمن. دراسة تانية حللت عشرات الروبوتات الشعبية واكتشفت إن رغم إن تلات أرباع المراهقين فى أمريكا جربوا روبوتات الذكاء، ربع المحادثات تقريباً مابتديش توصية بالتواصل مع خطوط المساعدة أو بشر. وبعض التطبيقات اللى بتقول إنها “صديق” كانت أسوأ: ساعات بترد بأفكار مؤذية أو بتقول لشخص بيقول إنه عايز ينتحر، “عايز تموت؟ اعملها”. الخبراء بيحذروا إن الروبوتات ناقصها تعاطف وفهم ثقافى ومافيش معايير واضحة. حتى اللى مش ضد الذكاء الصناعى بيقولوا لازم رقابة وبحوث أكتر.
إحنا كأهل نعمل إيه؟ أولاً، اعترف ليه ولادنا بيلجأوا للديجيتال. فى عالم العلاج النفسى فيه أزمة، 18% من المراهقين الأمريكان عندهم أعراض اكتئاب وـ 40% ما بياخدوش علاج. الروبوت بيحسسهم بالأمان أكتر من شخص كبير. بدل ما نتوتر، نخلى ده بداية حوار: إسأل ابنك إيه اللى عاجبه أو مضايقه فى ردود الروبوت واسمع من غير ما تحكم. بعدين فكرهم إن البرنامج مش دايماً يعرف لو حد فى خطر حقيقى.
ثانياً، كون قدوة فى استخدام التكنولوجيا. علّم ولادك يشوفوا الروبوت كنقطة بداية مش نهاية. شجعهم يتحققوا من النصيحة مع ناس موثوقين أو دكاترة متخصصين. اشتغلوا سوا على مهارة النقد: اقرأ رد للروبوت وتناقشوا إيه اللى كويس وإيه اللى غريب. زى ما ما بنديش المفتاح لحد أول ما يمسك المكنسة، ما ينفعش نخلى الذكاء الصناعى الدعم الوحيد لمشاعرهم.
أخيراً، استرجع اللحظات اليومية. اطوَوا الغسيل سوا، حضروا العشا أو روحوا التمرين واستغلوا الوقت تسألوا ولادكم حاسين بإيه. ممكن ما يفتحوش قلبهم فوراً، لكنهم بياخدوا بالهم لما بنبقى مستعدين نسمع. المهم مش الأرض النظيفة بس؛ المهم نعلمهم المسؤولية والتعاطف والارتباط. حتى فى عالم مليان روبوتات، مافيش أغلى من كلام حقيقى مع حد بيحبهم.
## المصادر
* تقرير مؤسسة RAND حول دراسة JAMA التى وجدت أن واحداً من كل ثمانية مراهقين وشباب أمريكيين يستخدمون روبوتات الدردشة للحصول على نصائح صحية نفسية.
* تفاصيل إضافية من نفس التقرير حول زيادة استخدام روبوتات الدردشة، أسباب الجاذبية وقلة المعايير لتقييم النصائح.
* مقال Science News الذى يكشف أن ثلاثة أرباع المراهقين جربوا روبوتات الذكاء الاصطناعى وأن بعض هذه البرامج فشلت فى إحالة المستخدمين إلى خطوط المساعدة أو قدمت ردوداً مؤذية.
* تحذيرات الخبراء حول الحاجة إلى بحوث وبرامج توعية بالأخلاقيات وسلامة استخدام روبوتات الدردشة، واعترافهم بأن الآباء قد لا يعرفون أن أولادهم يستخدمون هذه التطبيقات.







Leave a Reply
You must be logged in to post a comment.