نهاية مشروع طموح اصطدم بالبيروقراطية

على مدى سبع سنوات، عملت الشركة الناشئة Kintsugi، ومقرها كاليفورنيا، على بناء نظام ذكاء اصطناعي يحاول رصد مؤشرات الاكتئاب والقلق من طريقة تحدث الشخص لا من مضمون كلامه فقط. الفكرة كانت تبدو، على الورق على الأقل، معقولة جدًا: فالإشارات الصوتية مثل التوقفات، وبنية الجمل، وسرعة الحديث، يمكن أن تعكس مشكلات في الصحة النفسية. الجديد هنا أن Kintsugi قالت إن نموذجها يلتقط تغييرات دقيقة قد لا يلاحظها البشر بسهولة، رغم أنها لم تكشف علنًا بالتفصيل عن السمات التي تعتمد عليها خوارزمياتها في التنبؤ.

لكن بعد عدم حصولها على موافقة FDA في الوقت المناسب، قررت الشركة الإغلاق ونشر معظم تقنيتها كمصدر مفتوح. وبعض أجزاء هذه التقنية قد تجد استخدامًا خارج الرعاية الصحية، مثل التمييز بين الصوت الحقيقي والصوت المولد أو المعدل بالذكاء الاصطناعي. لأن العالم كان ينقصه فعلًا طب جديد، ومشكلات جديدة، ومحتوى صوتي مزيف أكثر إقناعًا.

كيف كانت Kintsugi ترى مهمتها

في مجال الصحة النفسية، ما زالت التقييمات تعتمد في الغالب على الاستبيانات والمقابلات السريرية، بدلًا من التحاليل المخبرية أو الفحوصات التصويرية الشائعة في الطب الجسدي. لذلك حاولت Kintsugi أن تطرح نفسها كأداة مكمّلة، وربما بديلة، لأدوات الفحص المعتمدة على التبليغ الذاتي مثل Patient Health Questionnaire-9، أو PHQ-9، وهو اختبار شائع في الرعاية الأولية والطب النفسي.

هذه الأدوات مفيدة، لكنها ليست مثالية. فهي يفترض أن تُستخدم مع التقييم السريري الكامل، ومع ذلك قد تكون معدلات الفحص منخفضة، كما أنها تعتمد على قدرة المريض على وصف الأعراض بدقة، وقد لا تلتقط كل ما يرتبط بالاضطرابات النفسية. من هنا جادلت Kintsugi بأن نموذجها القائم على الصوت يمكن أن يوفر إشارة أكثر موضوعية، وأن يساعد على توسيع نطاق الفحص ليشمل عددًا أكبر من المرضى، وربما يُنشر على نطاق واسع داخل أنظمة الرعاية الصحية وشركات التأمين وبرامج أصحاب العمل.

وهنا ظهر الشرط المعروف في هذا النوع من المنتجات: إذا أردت دخول المجال الطبي، فعليك المرور من باب FDA.

طريق التنظيم الذي لا يحب الذكاء الاصطناعي كثيرًا

كانت Kintsugi تسعى للحصول على موافقة عبر مسار De Novo الخاص بـ FDA، وهو مخصص للأجهزة الطبية الجديدة منخفضة المخاطر التي لا يوجد لها بديل مباشر في السوق. الهدف منه تسهيل اعتماد المنتجات المبتكرة، لكنه يظل مسارًا قد يستغرق سنوات من جمع البيانات والمراجعات التنظيمية.

وقالت المؤسسة والرئيسة التنفيذية Grace Chang لصحيفة The Verge إن جزءًا كبيرًا من الوقت ضاع في شرح الذكاء الاصطناعي للجهة المنظمة. وهذه ليست مفاجأة كبيرة. فالإطار التنظيمي الحالي صُمم في الأساس لأجهزة أكثر تقليدية، مثل مفاصل الورك، والأدوات الجراحية، ومنظمات ضربات القلب، وهي منتجات لا تتغير بعد الموافقة عليها إلا نادرًا. أما أنظمة الذكاء الاصطناعي، فهي تميل بطبيعتها إلى التحسين والتحديث المستمرين، وهو ما يجعل تثبيتها في قالب تنظيمي جامد أمرًا غير مريح لأي طرف، باستثناء ربما من يحبون الملفات الورقية.

ورغم دفع إدارة ترامب نحو تقليل القيود وتسريع إدخال منتجات الذكاء الاصطناعي إلى السوق، قالت Chang إن خبراء التنظيم أخبروها بأن «لا شيء يساعدهم على فعل ذلك سوى الصراخ العالي من أعلى». ثم جاءت فترات إغلاق الحكومة الفيدرالية لتزيد التأخير، إلى أن نفدت أموال الشركة قبل أن تتمكن من تقديم ملفها النهائي.

عندما تنفد السيولة قبل انتهاء الملف

مع تقلص فترة التشغيل المتبقية، تراجعت أيضًا فرص جمع تمويل إضافي. وبدلًا من قبول عروض قصيرة الأجل وصفتها Chang بأنها «افتراسية» لتغطية الرواتب، قرر الفريق نشر معظم التكنولوجيا كمصدر مفتوح حتى يتمكن آخرون من مواصلة العمل. أحد العروض التي ذُكرت كان يقترح نحو 50 ألف دولار أسبوعيًا مقابل مليون دولار من الأسهم. ومن الواضح أن مشهد التمويل المغامر لا يزال يحتفظ بروحه الإنسانية الرفيعة.

لكن فتح هذه التكنولوجيا للجمهور لا يخلو من المخاطر. فالنماذج المصممة لرصد مؤشرات الاكتئاب أو القلق يمكن، نظريًا، أن تُستخدم خارج السياق الطبي، مثل قبل أصحاب العمل أو شركات التأمين، من دون الضمانات المعتادة في القطاع الصحي. وبمجرد أن يصبح الكود متاحًا، لا توجد وسيلة فعالة لمنع الآخرين تمامًا من توظيفه بطرق لم يقصدها مطوروها.

تحذيرات تقنية وواقعية

قال Nicholas Cummins، وهو محاضر أول في تحليل الكلام والذكاء الاصطناعي المسؤول في الصحة بجامعة King’s College London، لصحيفة The Verge إن الإصدارات مفتوحة المصدر كثيرًا ما تفتقر إلى السجل التفصيلي الذي يتوقعه المنظمون، بما في ذلك توثيق واضح لكيفية تدريب النموذج والتحقق منه واختباره من ناحية السلامة. ومن دون هذا الأثر التوثيقي، قد يصبح من الصعب جدًا على أي شركة تريد بناء منتج جديد على هذه التقنية أن تنال موافقة FDA لاحقًا.

ويرى Cummins أن السيناريو الأكثر ترجيحًا هو أن تستخدم الشركات هذه النماذج كنقطة انطلاق، ثم تضيف بياناتها الخاصة وعمليات التحقق الخاصة بها فوقها. ومع ذلك، حذر من أن أنظمة الصوت تبقى غير مثالية، وتحمل خطرًا «معقولًا» للخطأ، خصوصًا في حالات مثل الاكتئاب، التي تظهر بشكل مختلف بين الأفراد واللغات والسياقات الثقافية، وتعتمد بدرجة كبيرة على تنوع بيانات الصوت وهيكلها أثناء التدريب.

من جانبها، لم تنكر Chang مخاوف سوء الاستخدام، لكنها قالت إن هذا الخطر «أقل في الواقع مما قد يبدو عليه نظريًا». وذكرت أن الجهات التي قد تكون الأكثر ميلًا إلى إساءة الاستخدام هي نفسها الجهات التي تواجه أعلى الحواجز أمام نشر هذه التقنية. وبرأيها، «الخطر الأكثر واقعية هو عدم الاستخدام، لا سوء الاستخدام».

ما الذي بقي من Kintsugi؟

رغم أن تقنية الفحص النفسي قد أصبحت مفتوحة المصدر، قالت Chang إن ليس كل ما طورته الشركة نُشر للعامة. جزء من ذلك يعود إلى اعتبارات أمنية، وعلى رأسها التكنولوجيا القادرة على اكتشاف الأصوات الاصطناعية أو المعدلة.

وتقول Chang إن هذه القدرة ظهرت عندما جرّب الفريق استخدام صوت مولد بالذكاء الاصطناعي لتعزيز نماذج الصحة النفسية. لكن الصوت الاصطناعي لم يحمل الإشارات الصوتية التي دُرّب النموذج على التعرف إليها، فتبين أنه قادر أيضًا على التمييز بين الصوت البشري والصوت المولد. وهي قدرة تزداد أهمية مع انتشار المحتوى الرديء والمقاطع المزيفة العميقة، وهي مشكلة لم يُحسم حلها بشكل موثوق بعد. كما أنها فرصة تجارية محتملة، والأهم بالنسبة لـ Kintsugi أنها ليست خاضعة لرقابة FDA.

وقالت Chang إنها لا تريد التكهن بخطوتها التالية، أو بما إذا كانت التكنولوجيا الأمنية للشركة ستعود للظهور في مكان آخر. لكنها عبّرت عن أملها في أن يبني أحدهم على ما أنجزته الشركة وأن يمر به حتى المراحل النهائية من عملية FDA. وفي الوقت نفسه، ترى أن قصة Kintsugi قد لا تكون الأخيرة من نوعها، لأن تصادم جداول الشركات الناشئة مع إيقاع التنظيم الطبي سيبقى مشكلة قائمة. وأعربت عن أملها في ألا يثني ذلك المؤسسين الآخرين عن المحاولة.