أكدت دراسة حديثة أجرتها مؤسسة «AI Caring» التابعة لمعهد جورجيا للتكنولوجيا، أن تقديم تفسيرات واضحة ومقنعة للاقتراحات البرمجية، يُعد شرطاً أساسياً لكسب ثقة كبار السن في تقنيات الذكاء الاصطناعي، محذرة من أن غياب هذه الشفافية يجعل كبار السن أقل ميلاً للاعتماد على المساعدين الصوتيين في حياتهم اليومية.وكشفت الدراسة عن وجود فجوة جيلية واسعة في تصميم أدوات الذكاء الاصطناعي، حيث يميل كبار السن إلى «أنسنة» هذه الأنظمة والتحدث إليها كأشخاص حقيقيين، بينما يفتقر المصممون غالباً لفهم احتياجاتهم الخاصة، ما يجعلهم يشعرون بالاستبعاد من عملية التصميم.وأظهرت نتائج المقابلات التي أجريت مع 23 من كبار السن أن المستخدمين يثقون بالذكاء الاصطناعي عندما تستند تفسيراته إلى سجل محادثاتهم السابقة أو البيانات البيئية المحيطة بهم، بينما يبدون ارتياباً شديداً تجاه «التفكير الذاتي» للآلة والنسب المئوية التي تعبر عن درجة الثقة؛ فخلافاً للشباب الذين ينجذبون للأرقام، يرى كبار السن أن تقديم نسبة مثل «92%» دون توضيح أسسها يقلل من موثوقية النظام.وخلصت الدراسة إلى أن النجاح بدمج الذكاء الاصطناعي في حياة كبار السن، يتطلب تجاوز «قوائم الشفافية» التقليدية نحو تصميم يراعي السياق، بحيث يكون النظام مباشراً وموضوعياً في حالات الطوارئ، وتفاعلياً واجتماعياً في المواقف العادية، بما يدعم استقلاليتهم ويقلل من أعباء الرعاية الملقاة على عاتق أسرهم.