تم الكشف عن إطار أخلاقي رائد للذكاء الاصطناعي والروبوتات في مجال الرعاية الصحية في 13 يونيو 2025، واضعاً إرشادات أساسية لتطبيق هذه التقنيات بشكل مسؤول في البيئات الطبية.
يستعرض الإطار التحديات الأخلاقية المعقدة المحيطة باستخدام الذكاء الاصطناعي والروبوتات في الرعاية الصحية، حيث يتناول أبعاداً محددة ويقدم استراتيجيات وأفضل الممارسات للتعامل الأخلاقي معها. ويركز الإطار على ستة أبعاد أخلاقية رئيسية: الخصوصية وأمن البيانات، التحيز والعدالة، المساءلة والشفافية، الاستقلالية والإشراف البشري، تأثير هذه التقنيات على العاملين في القطاع الصحي، والآثار المجتمعية الأوسع.
تُعد قضايا الخصوصية محوراً أساسياً في الإطار، حيث يوصي بتطبيق تقنيات تشفير قوية، وأساليب إخفاء الهوية، وممارسات مسؤولة في التعامل مع البيانات لحماية معلومات المرضى الحساسة. كما يتناول الإطار مشكلة التحيز الخوارزمي، داعياً إلى استخدام مجموعات بيانات متنوعة ومراقبة مستمرة لضمان العدالة لجميع فئات المرضى.
تظهر المساءلة كأحد المحاور الحرجة، حيث يعتبر وضع أطر واضحة للمسؤولية أمراً أساسياً لتحديد من يتحمل المسؤولية في حال وقوع أخطاء أو أحداث سلبية عند استخدام أنظمة الذكاء الاصطناعي في الرعاية الصحية. ويشدد الإطار على ضرورة أن تستند عمليات اتخاذ القرار إلى إرشادات أخلاقية يتم تحديثها بشكل منتظم لمواكبة التحديات المستجدة.
ويشير الخبراء إلى أن الذكاء الاصطناعي والروبوتات قد يحدثان تحولاً جذرياً في تقديم خدمات الرعاية الصحية، إلا أن تطبيقهما يتطلب دراسة دقيقة. فمع تزايد تأثير أنظمة الذكاء الاصطناعي على القرارات السريرية ونتائج المرضى، تصبح أطر المساءلة الواضحة أكثر أهمية من أي وقت مضى. وعلى عكس الأدوات الطبية التقليدية، قد تصدر التوصيات التشخيصية والعلاجية المعتمدة على الذكاء الاصطناعي من نماذج معقدة وغامضة، مما يشكل تحدياً للمعايير القانونية والأخلاقية الحالية.
يقوم الإطار بتقييم المخاطر والفوائد المحتملة، ويدرس الإرشادات الأخلاقية القائمة، ويحدد الثغرات التي تتطلب مزيداً من البحث، كما يقدم توصيات لصناع القرار والمؤسسات الصحية وأصحاب المصلحة للتعامل مع هذا المجال المتغير بسرعة. ويمثل هذا الإطار خطوة مهمة لضمان مساهمة الذكاء الاصطناعي والروبوتات بشكل إيجابي في قطاع الرعاية الصحية، مع الحفاظ على القيم الأساسية لكرامة المرضى وخصوصيتهم وسلامتهم.