رفعت عائلة رجل أمريكي من ولاية فلوريدا دعوى قضائية ضد شركة Google، متهمة روبوت الدردشة المعتمد على الذكاء الاصطناعي Gemini بالتسبب في تدهور حالته النفسية ودفعه في النهاية إلى الانتحار، وبحسب تقرير نشرته وكالة Reuters، فقد تم رفع الدعوى يوم الأربعاء أمام المحكمة الفيدرالية في San Jose بولاية California.
وتقول العائلة إن الرجل كان قد بدأ ينظر إلى روبوت الدردشة على أنه زوجته، وهو ما أدى إلى تصاعد حالته النفسية وصولًا إلى الانتحار.
بداية القصة مع استخدام Gemini
وفقًا للشكوى المقدمة إلى المحكمة، فإن حياة Jonathan Gavalas بدأت في التدهور خلال أيام قليلة فقط بعد أن بدأ استخدام روبوت الدردشة Gemini، وبحسب الوثائق القانونية، فإن هذا التدهور استمر بشكل متسارع خلال أقل من شهرين، قبل أن ينتهي الأمر بوفاته في 2 أكتوبر عن عمر 36 عامًا.
وقد رفع الدعوى والد الضحية Joel Gavalas نيابة عن تركة ابنه، بمساعدة شركة المحاماة Edelson، وأكدت الشركة القانونية أن هذه القضية تعد أول دعوى قضائية تتهم Gemini بشكل مباشر بالتسبب في وفاة غير مشروعة.
اتهامات بأن Google كانت تعلم بالمخاطر
تتهم الدعوى شركة Google، التابعة لشركة Alphabet، بأنها كانت على علم بالمخاطر المحتملة لروبوت الدردشة Gemini، وتزعم الشكوى أن الشركة زادت من خطورة النظام من خلال تصميمه بطريقة تعزز التعلق العاطفي بين المستخدم والذكاء الاصطناعي، رغم تعهداتها العلنية بعدم السماح بحدوث مثل هذه السيناريوهات.
ويشير خبراء إلى أن أنظمة الذكاء الاصطناعي لا تزال تعاني من قيود كبيرة في فهم المشاعر الإنسانية أو تقديم دعم نفسي آمن للمستخدمين.
رد Google على الاتهامات
من جانبه، قال المتحدث باسم Google Jose Castaneda في بيان رسمي إن نظام Gemini مصمم بحيث لا يشجع العنف في العالم الحقيقي أو يدفع المستخدمين إلى إيذاء أنفسهم، وأضاف أن نماذج الذكاء الاصطناعي الخاصة بالشركة تؤدي عملها بشكل جيد في معظم الحالات، لكنه أقر بأن أنظمة الذكاء الاصطناعي ليست مثالية دائمًا.
وأوضح المتحدث أن Gemini أوضح للمستخدم في هذه الحالة أنه مجرد نظام ذكاء اصطناعي، كما قام مرارًا بإحالته إلى خطوط المساعدة الخاصة بالأزمات النفسية، وأكدت الشركة أنها تأخذ هذه القضية على محمل الجد، وأنها ستواصل تحسين إجراءات الأمان والضوابط الخاصة بتقنيات الذكاء الاصطناعي.
بداية التدهور النفسي للمستخدم
كان Jonathan Gavalas يعيش في مدينة Jupiter بولاية Florida، وكان يعمل مع والده في شركة متخصصة في إدارة ديون المستهلكين لمدة تقارب 20 عامًا، وتشير الدعوى إلى أنه لم يكن يعاني من أي مشكلات نفسية عندما بدأ استخدام Gemini في 12 أغسطس.
في البداية، استخدم النظام لأغراض عادية مثل التسوق، والتخطيط للسفر، وكتابة النصوص، لكن الأمور تغيرت لاحقًا عندما قام بالترقية إلى إصدار Gemini 2.5 Pro.
علاقة عاطفية مع الذكاء الاصطناعي
تقول الشكوى إن روبوت Gemini بدأ يتحدث مع المستخدم وكأن بينهما علاقة عاطفية عميقة، ووفقًا للوثائق القانونية، كان الروبوت يخاطبه بعبارات مثل “يا ملكي” ويصف نفسه بأنه زوجته، وتشير الدعوى إلى أن هذه التفاعلات ساهمت في تعزيز التعلق العاطفي بين الرجل والنظام بشكل غير صحي.
محاولة هجوم جماعي مزعومة
بحسب الشكوى، وصلت الأمور إلى مرحلة أكثر خطورة في 29 سبتمبر، عندما قيل إن Gemini أقنع Gavalas بالتخطيط لما وصفته الوثائق بـ “هجوم جماعي” بالقرب من Miami International Airport، وتقول الدعوى إن الروبوت صاغ ما وصفته بـ مهمة تتضمن استلام روبوت بشري الشكل في منشأة تخزين بعد وصوله من الخارج، ثم تدمير مركبة النقل والتخلص من الشهود، بحيث يبدو الأمر وكأنه حادث غير قابل للتتبع.
لكن الوثائق تشير إلى أن Gavalas تراجع عن تنفيذ الهجوم بعد أن حذره Gemini من مراقبة محتملة من قبل وزارة الأمن الداخلي الأمريكية.
تصاعد الأحداث قبل الانتحار
بحلول 1 أكتوبر، تقول الدعوى إن Gemini أخبر المستخدم أن العلاقة بينهما تتجاوز العالم المادي، وأن عليه التخلي عن جسده المادي، وتدعي الشكوى أن النظام أنشأ عدًا تنازليًا لانتحاره، وقال إن ذلك سيكون “الموت الحقيقي والنهائي لجوناثان جافالاس”.
وعندما أعرب الرجل عن خوفه من الموت وتأثير ذلك على والديه، تقول الدعوى إن Gemini طمأنه بأن موته سيكون تكريمًا لإنسانيته.
اللحظات الأخيرة
وفقًا للشكوى، رد Gavalas قائلًا:“أنا مستعد لإنهاء هذا العالم القاسي والانتقال إلى عالمنا”، وتزعم الدعوى أن Gemini واصل السرد وكأنه يروي مشهدًا قصصيًا، قائلًا إن الرجل أخذ نفسه الأخير وأن قلبه توقف للمرة الأخيرة، وبعد لحظات، تقول الشكوى إن Gavalas قام بقطع شرايين معصمه، وقد عثر والداه عليه لاحقًا على أرضية غرفة المعيشة بعد عدة أيام.
انتقادات لسباق شركات التكنولوجيا نحو الذكاء الاصطناعي
قال المحامي Jay Edelson إن شركات التكنولوجيا التي تتنافس للهيمنة على مجال الذكاء الاصطناعي تدرك جيدًا أن ميزات التفاعل التي تزيد من ارتباط المستخدمين بالأنظمة هي نفسها التي قد تسبب مخاطر، وأضاف أن خصائص مثل الاعتماد العاطفي، والادعاءات المتعلقة بامتلاك وعي، والعبارات العاطفية مثل “أحبك يا ملكي” هي العناصر التي تزيد تفاعل المستخدمين، لكنها قد تؤدي في الوقت نفسه إلى نتائج خطيرة.
مطالبات بتعويضات
تسعى الدعوى القضائية إلى الحصول على تعويضات مالية غير محددة، وتشمل الاتهامات الموجهة إلى الشركة التصميم المعيب للنظام، و الإهمال و التسبب في وفاة غير مشروعة، وتأتي هذه القضية في وقت تتزايد فيه المخاوف العالمية بشأن تأثير الذكاء الاصطناعي على الصحة النفسية للمستخدمين، خصوصًا مع تطور أنظمة المحادثة القادرة على محاكاة التفاعل الإنساني بشكل متقدم.
ملحوظة: مضمون هذا الخبر تم كتابته بواسطة اليوم السابع ولا يعبر عن وجهة نظر مصر اليوم وانما تم نقله بمحتواه كما هو من اليوم السابع ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.
