الواقع المقلق لعمليات المسح الاصطناعي
لندن، المملكة المتحدة - 15 نوفمبر 2023 - يواجه الأساس التشخيصي للطب الحديث، الأشعة السينية، تهديدًا غير مسبوق من الذكاء الاصطناعي. يكشف بحث جديد مثير للقلق أن الأشعة السينية المزيفة العميقة، التي تستحضرها نماذج الذكاء الاصطناعي المتطورة، لا يمكن تمييزها الآن تقريبا عن الصور الطبية الحقيقية، وهي قادرة على خداع ليس فقط أطباء الأشعة البشر ولكن أيضا أنظمة التشخيص المتقدمة للذكاء الاصطناعي. هذه القفزة التكنولوجية، رغم إظهار القدرات التوليدية الرائعة للذكاء الاصطناعي، تفتح صندوق باندورا من المخاطر، بدءًا من الاحتيال التأميني على نطاق واسع إلى التشخيص الخاطئ الذي قد يهدد الحياة.
قدمت دراسة رائدة أجراها معهد الدراسات الإشعاعية المتقدمة (IARS) في جامعة أيثيلريد، ونشرت في الإصدار الأخير من مجلة تطبيقات الذكاء الاصطناعي الطبية في 28 أكتوبر 2023، أدلة دامغة على هذا التطور المثير للقلق. بقيادة الدكتور آريس ثورن، أستاذ الأشعة الحاسوبية، قام فريق البحث برعاية مجموعة بيانات مكونة من 200 صورة للأشعة السينية للصدر، مقسمة بدقة بين فحوصات المريض الأصلية والمزيفة التي تم إنشاؤها بواسطة الذكاء الاصطناعي. تم بعد ذلك تكليف لجنة مكونة من 30 متخصصًا في الأشعة من ذوي الخبرة من المستشفيات الأوروبية الكبرى بالتعرف على الأشعة الحقيقية من الاصطناعية.
وكانت النتائج صارخة. وعندما علموا أن جزءًا من الصور قد يكون مزيفًا، بلغت دقة أخصائيي الأشعة حوالي 60% فقط. ومع ذلك، عندما عُرضت الصور تحت ستار المراجعة التشخيصية الروتينية -غير مدركين لوجود التزييف العميق- انخفضت معدلات اكتشافها إلى نسبة مثيرة للقلق بلغت 42%. وحتى نماذج الذكاء الاصطناعي التشخيصية الحديثة، والتي غالبًا ما توصف لتميزها في التعرف على الأنماط، كافحت، وحققت معدلات اكتشاف أفضل قليلاً، ولكنها لا تزال غير كافية، بنسبة 55%.
كشف المخاطر: الاحتيال، والتشخيص الخاطئ، والثقة
إن الآثار المترتبة على مثل هذه الأشعة السينية المقنعة عميقة وبعيدة المدى. يتمثل القلق الأكثر إلحاحًا في احتمال انتشار الاحتيال في مجال التأمين الطبي على نطاق واسع. تخيل سيناريو يقدم فيه المدعي صورة أشعة سينية مزيفة تظهر إصابة خطيرة في العمود الفقري لتأمين مزايا العجز الكبيرة، أو صورة معالجة لتضخيم شدة الكسر البسيط، مما يؤدي إلى تضخيم المطالبات الطبية والمدفوعات. يتوقع الخبراء أن مثل هذه المطالبات الاحتيالية يمكن أن تكلف صناعة الرعاية الصحية المليارات سنويًا، مما يضع ضغطًا هائلاً على مقدمي خدمات التأمين ويؤدي في النهاية إلى ارتفاع أقساط التأمين للجميع.
وبعيداً عن المخالفات المالية، يمكن القول إن التهديد الذي يتعرض له رعاية المرضى أكثر شراً. من المحتمل أن تقوم الجهات الفاعلة الخبيثة بتغيير صور الأشعة السينية لتضليل الأطباء، إما عن طريق تلفيق أمراض غير موجودة، أو، وهو الأمر الأكثر خطورة، عن طريق محو الظروف الحقيقية أو طمسها. قد تُظهِر الأشعة السينية المزيفة رئة صافية عند وجود ورم، مما يؤدي إلى تشخيص خاطئ وتأخير العلاج، مع احتمال حدوث عواقب مميتة. وعلى العكس من ذلك، يمكن أن يؤدي المرض المفتعل إلى إجراءات غير ضرورية، مما يعرض المرضى لمخاطر غير مبررة وأنظمة الرعاية الصحية لتكاليف يمكن تجنبها.
د. وأكدت لينا بتروفا، خبيرة رائدة في مجال الأمن السيبراني متخصصة في البيانات الطبية في المعهد الأوروبي للأمن الرقمي، على تآكل الثقة. "إذا لم يعد بإمكان المتخصصين في المجال الطبي أن يثقوا بطبيعتهم في صحة الصور التي يعتمدون عليها في التشخيص، فإن الأساس الكامل لرعاية المرضى يبدأ في الانهيار. لا يتعلق الأمر بالتكنولوجيا فحسب، بل يتعلق بقدسية الأدلة الطبية والعلاقة بين الطبيب والمريض."
التكنولوجيا وراء الخداع
يُعزى إنشاء هذه الأشعة السينية شديدة الواقعية والمزيفة بعمق إلى التقدم في شبكات الخصومة التوليدية (GANs). تتكون شبكات GAN من شبكتين عصبيتين متنافستين: "المولد" الذي ينشئ صورًا جديدة و"التمييز" الذي يحاول التمييز بين الصور الحقيقية والمزيفة. من خلال عملية تكرارية، يتعلم المولد إنتاج منتجات مزيفة مقنعة بشكل متزايد، في حين يصبح التمييز أفضل في التعرف عليها. يؤدي سباق التسلح داخل الذكاء الاصطناعي نفسه في نهاية المطاف إلى مولد قادر على إنتاج صور واقعية للغاية لدرجة أنه حتى الخبراء البشريين يمكن خداعهم.
لاحظ الباحثون في جامعة إيثيلريد أن نماذج الذكاء الاصطناعي تم تدريبها على مجموعات بيانات ضخمة من الأشعة السينية الحقيقية المجهولة المصدر، مما مكنهم من فهم التفاصيل التشريحية المعقدة، والتغيرات الدقيقة في كثافة الأنسجة، وحتى الفروق الدقيقة في الأمراض المختلفة. يسمح هذا التعلم المتطور للذكاء الاصطناعي ليس فقط بتوليد عظام عامة، بل أيضًا بصور تحاكي بشكل مقنع حالات مثل الكسور الشعرية، أو الالتهاب الرئوي في مرحلة مبكرة، أو حتى آفات عظمية محددة، مما يجعل الكشف صعبًا للغاية.
نداء عاجل للضمانات وأدوات الكشف
تتصارع المجتمعات الطبية والتكنولوجية الآن مع الحاجة الملحة إلى اتخاذ تدابير مضادة قوية. يدعو الدكتور ثورن وفريقه إلى اتباع نهج متعدد الجوانب. أولاً، هناك حاجة ماسة لتطوير نماذج ذكاء اصطناعي جديدة مصممة خصيصًا لاكتشاف الصور الطبية المزيفة، لتكون بمثابة حراس البوابة الرقمية. ستحتاج "أجهزة كشف التزييف العميق" هذه إلى التحديث المستمر والتدريب لمواكبة التطور المتطور للذكاء الاصطناعي التوليدي.
ثانيًا، يكتسب تنفيذ العلامات المائية الرقمية الآمنة أو أنظمة المصادقة المستندة إلى تقنية blockchain لجميع أنواع التصوير الطبي زخمًا. ومن شأن هذه الأنظمة أن تدمج توقيعًا رقميًا غير قابل للتغيير في كل صورة أشعة سينية أصلية، مما يسمح بالتحقق الفوري من صحتها ومصدرها. ثالثًا، تعد برامج التدريب الشاملة لأخصائيي الأشعة والعاملين الطبيين ضرورية لرفع مستوى الوعي وتزويدهم بالمعرفة لتحديد العلامات المحتملة للتلاعب الرقمي، مهما كانت دقيقة.
"هذه ليست مجرد مشكلة افتراضية للمستقبل البعيد؛ إنها موجودة الآن"، حذرت الدكتورة بيتروفا. "يجب على الحكومات ومقدمي الرعاية الصحية ومطوري التكنولوجيا التعاون بقوة لإنشاء أطر تنظيمية ونشر تقنيات الكشف. السباق مستمر لتأمين البنية التحتية للتصوير الطبي لدينا قبل أن تصبح هذه التزييفات العميقة تحديًا لا يمكن التغلب عليه."
مع استمرار الذكاء الاصطناعي في صعوده السريع، أصبحت طبيعته المزدوجة كأداة قوية وسلاح محتمل واضحة بشكل متزايد. في حين أن تقنية التزييف العميق توفر إمكانات مذهلة في مجالات مثل التدريب الطبي وتوليد البيانات الاصطناعية للأبحاث، فإن إساءة استخدامها في مجالات حساسة مثل التشخيص تتطلب اتخاذ إجراءات فورية وحاسمة لحماية الصحة العامة والحفاظ على سلامة العلوم الطبية.






