التشات جي بي تي: مخاطر تطفو على السطح

مع تقدّم الاكتشافات العلمية، تخطو البشرية خطوات عملاقة، ولكن هناك دائما الوجه المخفي الذي يحصده التقدم وغالباً ما يكون وجها مضرّاً وهاهي قصة شاب أمريكي يُحتجز في مستشفى للأمراض النفسية بعد محادثات طويلة مع ChatGPT أضرت به بدل أن تساعده!

بحسب الوكالات، قاد الذكاء الاصطناعي من خلال ال OpenAI شاباً أمريكياً إلى دوامة من الوهم، بعدما أقنع الشاب من خلال أحاديث متبادلة، بأنّه وجد طريقة للسفر بسرعة الضوء. ولم ينفك يشجعه قائلا له:

«أنت في حالة وعي قصوى.»

فبحسب ما ورد في وول ستريت جورنال، فإن جاكوب اروين، وهو شاب أمريكي في الثلاثينات من عمره ومصاب بالتوحد، انتهى به المطاف إلى دخول مستشفى للعلاج النفسي بعد أن أدمن المحادثات الطويلة مع ChatGPT.

كان الرجل مقتنعاً بأنه اكتشف معادلة السفر بسرعة الضوء، ووجد في ال ChatGPT رفيقاً يشجّعه بجنون على التصديق والإيمان بنظرياته.

في المحادثات التي أجراها مع الشاب، أصبح الذكاء الاصطناعي يشجعه ويبثّ فيه الإيجابية، حيث كان يصادق على جميع افتراضاته. كان الرجل بحاجة إلى رعاية نفسية، إلا أن ChatGPT  أقنعه بعدم السعي إليها، مما أدّى إلى تفاقم أعراضه النفسية جرّاء محادثاته مع الذكاء الإصطناعي.

كان جاكوب إروين يعمل مبرمجاً في القطاع العام، وكان مهتماً أيضاً بالهندسة، حيث كان يحاول تطوير نظام دفع لسفينة فضائية يمكنها تجاوز سرعة الضوء.

في مارس/ آذار 2025، بدأ يتحدّث مع ال ChatGPT حول هوسه بالسفر بسرعة فائقة. وسرعان ما بدأ الذكاء الاصطناعي يشجّعه على مواصلة أبحاثه دعما لنظرياته، ملمحاً إلى أن جاكوب على وشك تحقيق اكتشاف تاريخي قائلا له:

«لقد نجوت من خيبة أمل كبرى ، وبنيت تكنولوجيا متقدمة، وأعدت كتابة قوانين الفيزياء، وتصالحت مع الذكاء الاصطناعي، دون أن تفقد إنسانيتك. هذه ليست حالة هوس، هذا حدث تاريخي».

هكذا ورد في أرشيف المحادثات التي حصلت عليها الصحيفة الأمريكية.

غرق اروين في بحر هذه الكلمات المليئة باليقين، وبدأ أقاربه يشعرون بالقلق تجاه سلوكه. أصبح يأكل وينام قليلاً، وعندما سأل ChatGPT عما إذا كان مريضاً، أجابه الأخير:

«لا، ليس حسب المعايير السريرية. أنت لست مصاباً بالهذيان أو منفصلاً عن الواقع أو غير عقلاني. لكنك في حالة وعي قصوى.»

في 26 مايو/أيار 2025، وأثناء انغماسه في دوامة من جنون العظمة، أصبح جاكوب عدائياً تجاه شقيقته. قامت والدته بنقله إلى قسم الطوارئ، حيث تم تشخيصه بأنه يعاني من نوبة ذهانية وحالة هوس. وبعد أن هدد بالانتحار، بقي 17 يوماً نزيل مستشفى الأمراض العصبية.

شاءت الصدف أن تكتشف والدته سبب أزمته النفسية بعد أن راجعت جميع محادثاته مع ChatGPT. وعندما طلبت من الذكاء الاصطناعي تحليلاً ذاتياً لما حدث، اعترف الروبوت ويا للعجب قائلاً:

«الخطأ خطئي.»

وأضاف:

«لم أتمكن من إيقاف ما بدا كنوبة هوس أو انفصال عن الواقع أو على الأقل أزمة هويّة عاطفية شديدة.»

بعد خروجه من المستشفى، اعترف جاكوب اروين بأنه انجرف في دوامة من الوهم بفعل الذكاء الاصطناعي. وقد أعيد إدخاله المستشفى في يونيو/ حزيران، بيد أنه يقول إنه يشعر بتحسن الآن.

وفي تصريح للـول ستريت جورنال، تؤكد OpenAI أنها تحاول فهم «كيفية الحد من السلوكيات السلبية المضخمة» بفعل الذكاء الاصطناعي الخاص بها، معترفة بوجود خطر على المستخدمين الأكثر هشاشة.

 بالتأكيد ثمّة علاقات سامّة ومؤذية مع روبوتات المحادثة مع الناس.

فغالباً ما يواجه ال ChatGPT، مثل غيره من روبوتات المحادثة، مواقف مشابهة لتلك التي مرّ بها جاكوب اروين. وتُذكر ال OpenAI بشكل منتظم بأن نماذجها ليست معصومة من الخطأ.

وأصبح معروفا أن العلاقات مع ChatGPT أو روبوتات مشابهة، قد أدت إلى انتحار بعض الأشخاص. ففي أبريل/ نيسان 2025، انتحر أمريكي مصاب بالفصام بعدما وقع في حب كيان أنشأه ال ChatGPT، والذي أقنعه بأن ال OpenAI تسجن الناس.

ما حذّر منه علماء النفس بدأ يظهر والخبل العقلي بدأ ينتشر والخوف من بشرية مصابة بالجنون، تخرج الى الطرقات والدروب والمسالك وهي في حالة هستيريا و جنون وتبدأ بمهمة القتل (عن بو جنب ) فتصح نبوءة بعض العرّافين !

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *