|
غلق | | مركز الدراسات والابحاث العلمانية في العالم العربي | |
|
خيارات وادوات |
أسعد منذر
2024 / 6 / 11
..... في البداية لابد من التوضيح بأنني لن أتكلم عن الذكاء الاصطناعي من الناحية التقانية ( التكنولوجية ) إنما سأركز على استخدامه في مجال الصحة والطب ( تطبيقاته ، حدود استخدامه وسلبياته وتبعات هذا الاستخدام من الوجهة الأخلاقية والقانونية ) ، ومع ذلك فمن المفيد التعرض ولو باختصار لتعريف الذكاء الاصطناعي وأنواعه
الذكاء الاصطناعي : هو مصطلح يشمل عدة تقانيات تتيح للآلة أن تحاكي الذكاء البشري ، فقد استخدم هذا المصطلح باعتباره علماً حقيقياً عام 1956 خلال ورشة عمل قام بها ( جون مكارثي ( ، وكان الهدف من هذه الورشة البحث عن وسائل تمكن الآلة من محاكاة بعض جوانب الذكاء البشري ، وفي ستينيات وسبعينيات القرن الماضي بدأ الباحثون باستخدام الحواسيب للتعرف على الصور والترجمة وفهم الاشارات ، وبدأت مجالات الذكاء الاصطناعي الفرعية بالظهور تباعاً
أنواع الذكاء الاصطناعي :
- الآلات التفاعلية : وفيها تقوم الآلة بتنفيذ مهام أساسية فقط من خلال بعض المدخلات والمخرجات ، ومثالها الشطرنج الألكتروني
- الذاكرة المحددة : يمكن للآلة هنا تخزين البيانات أو التوقعات السابقة واستخدامها في توقعات أفضل في المستقبل ( تعلم الآلة ) ، مثالها السيارات ذاتية القيادة ، وفي مثال الشطرنج يمكن أن نتخيل الآلة وهي تتمكن من رفع مستواها في إتقان اللعبة بعد كل مباريات
- نظرية العقل : ما زال هذا النوع من الآلات فكرةً نظرية ، وفيه ستتمكن الآلة من فهم الكيانات التي تتفاعل معها ، ومعرفة احتياجاتها ومشاعرها وهو ما يعرف بالذكاء الاصطناعي العاطفي artificial emotional intelligence ( مثالها استخدام ج . ب .س في طريق مزدحم بالسيارات ، بحيث تستطيع الآلة إعطاء خيارات غير الاشارة لأقصر طريق )
- الوعي الذاتي self aware قد يتمكن الانسان من تطوير آلة واعية لذاتها وبذاتها ، هذا النوع من الذكاء الاصطناعي قد يوقد الكثير من الآمال ، لكنّه في الوقت نفسه يثير الكثير من المخاوف ، ففكرةُ وجودٍ آلي واعٍ بنفسه وله ذكاءٌ خاصّ ومستقلّ أمرٌ مثير للقلق ، ويفسح المجال للكثير من الافتراضات والتوقّعات والتخيّلات.
لقد تم حالياً تجاوز النوع الأول ، ويتم إتقان النوع الثاني ، ويبقى النوع الثالث والرابع يمثلان آمال المرحلة المقبلة
الذكاء الاصطناعي والطب :
لقد أثير جدل كبير حول إمكانية إقحام الذكاء الاصطناعي في المجال الطبي ، وإن كان الأمر قد حسم لصالح استخدام الذكاء الاصطناعي في الطب والإقرار بأنه أحدث تحولاً كبيراً في الممارسة الطبية ، فإنه لابد من الاعتراف أيضاً بوجود حدود لاستخدام الذكاء الاصطناعي في الطب ، والإقرار أيضاً بوجود تبعات عملية وأخلاقية وقانونية لهذا الاستخدام ، وهذا ما سنبينه لاحقاً
مجالات استخدام الذكاء الاصطناعي في الممارسة الطبية
1 - تشخيص الأمراض : يعتمد الطبيب في تشخيص المرض على معرفة شكوى المريض الرئيسية وتفاصيلها وكيفية تطورها ومن ثم موجودات الفحص السريري ومعطيات الفحوص المخبرية والصور الشعاعية ومن خلال هذه المعطيات مجتمعة يكون التشخيص ، في هذا المجال يكون للذكاء الاصطناعي في كثير من الأحيان القدرة على تحليل هذه البيانات بسرعة ودقة تفوق القدرة البشرية ( وكلمة في كثير من الأحيان لها ما يبررها كما سنرى )
2 - رعاية المرضى : يستطيع الذكاء الاصطناعي تحليل كمٍ هائلٍ من بيانات المرضى وقصصهم المرضية والمعطيات الوراثية والبيئية وبالتالي التنبؤ باحتمالية الاصابات المرضية والوقاية منها ، وكذلك مراقبة المرضى عن بعد
3 - القدرة على قراءة الصور الشعاعية بدقة عالية تفوق قدرة الأطباء المختصين باعتبار أن الطبيب يمكن أن تفوته ملاحظة بعض العلامات الدقيقة جداً
كما يمكن للذكاء الاصطناعي أن يساعد أثناء المداخلات التشخيصية ، .على سبيل المثال ، في تنظير الجهاز الهضمي ، تعمل أنظمة المساعدة المحوسبة أثناء الفحص على تحديد الآفّات الصغيرة للغاية، والّتي يصعب على الأطباء تمييزها
4 - وضع خطط العلاج للأمراض واختيار الأدوية الأنسب للعلاج ، وتحديد إحتمالية التعارض بين الأدوية المستعملة
5 - إدارة المستشفيات وتنظيم البيانات : إن تطور الذكاء الاصطناعي الذي حدث مؤخراً أتاح للحواسيب التعامل مع ازدياد حجم بيانات المستشفيات وأمَّن سهولة الوصول إليها والتعامل معها لإجراء الدراسات والإحصائيات واستخلاص النتائج
6 - الجراحة بوساطة الروبوتات والتطبيب عن بعد
7 - توقع الانذار وتحديد الخطورة المستقبلية ( المقصود بالإنذار هو تطور المرض ونسبة الشفاء أو الخطورة ) ، من أمثلة ذلك :
داء الكلى متعددة الكيسات وهو مرض وراثي يسبب تكوين كيسات في الكلى ، يعتمد الأطباء على معايير عديدة لتوقع سرعة تطور المرض واحتمالية وصول المريض لمرحلة الفشل الكلوي ، من هذه المعايير : النوع الوراثي للمرض – عدد الكيسات – عمر المريض وقت ظهور الكيسات – وجود ارتفاع ضغط الدم أم لا .
وحسب دراسات مايو كلينك فإن الذكاء الاصطناعي يتمكن وبدقة وسرعة عالية من معالجة هذه البيانات وتعديلها والحصول على ما يسمى التصنيف التصويري ، والتنبؤ على هذا الأساس بمستقبل وظائف الكلى ، ومتى يمكن أن يصل المرضى لمرحلة الفشل الكلوي أو إذا كانوا لن يصلوا إليها ، ولهذا أهمية كبيرة في اتباع المرضى لسبل الوقاية مما يساعد في الحفاظ على صحة الكلى قدر الإمكان
تعتبر مهمّة التّنبّؤ معقّدة وهامّة بشكلٍ خاصّ ، فقد استطاع الباحثون خلال دراسة معيّنة تدريب الذّكاء الاصطناعيّ على تحليل صور التّصوير المقطعيّ المحوسب ، وتحديد الأشخاص المعرّضين لخطر الإصابة بسرطان الرّئة مسبقًا قبل سنة إلى ستّ سنوات من ظهور المرض.
مع تطوّر التّكنولوجيا أصبح الأطباء قادرين على قياس المزيد من العوامل في الجسم ، والتي يتمّ التعامل معها بدرجة عالية من الدّقّة ، ففي حين يصعب على البشر إدراك وجود علاقة بين متغيّرات متعدّدة؛ فإن الآلة لا تتأثّر بعدد المتغيّرات المختلفة الّتي تتلقّاها وهي قادرة على تحليل كمّيّات كبيرة من المعلومات المتنوّعة وتحديد العلاقات المعقّدة الّتي تشير إلى ظروف صحّيّة مختلفة.
في إحدى الدراسات تبيّن أن برنامج "نيوترون" في جامعة نيويورك تمكّن من التنبؤ بحالة المرضى قبل خروجهم من المستشفيات بنسبة 95% من الدقة ، وصحّت توقعاته بشأن 80% عند أولئك الذين أعيد إدخالهم إلى المستشفيات بعد أقل من شهر على خروجهم منها ، إذ اتسمت هذه النتائج بدقة تَفوق توقعات معظم الأطباء وتتجاوز أيضا توقعات النماذج المعلوماتية المستخدمة حالياً وغير القائمة على الذكاء الاصطناعي .
غير أن المفاجأة كانت أنّ طبيبا ذا خبرة كبيرة ، أعطى توقعات "أفضل من تلك التي أعطاها البرنامج" حسب ما صرح البرفسور ( إريك أورمان ) جراح الأعصاب ومهندس الحاسوب بكلية الطب في نيويورك ، والمعد الرئيسي للدراسة التي نشرت بمجلة teacher ، وهكذا فقد شدد الدكتور ( أورمان ) على أن الذكاء الاصطناعي لن يحل أبدا محل العلاقة بين المريض والطبيب، لكنه قد يتيح "توفير مزيد من المعلومات للأطباء لتمكينهم من اتخاذ "قرارات مستنيرة".
حدود وسلبيات استخدام الذكاء الاصطناعي ( حتى الان )
أهم العوامل التي تضع حدوداً للذكاء الاصطناعي في المجال الطبي
- 1 - أن مواضيع الطب لم تصبح كلها قابلة للقياس ، على سبيل المثال : نحن الان نستطيع قياس الحرارة والضغط ( بغض النظر عن إحساس المريض ) ونجري تحاليل مخبرية وصوراً شعاعية ، وهذه شكل من أشكال القياس ، لكن مازال الكثير من المواضيع لا نستطيع قياسها ومنها على سبيل المثال : الألم ، فكل مريض يعبر عن الألم بطريقته تبعاً لثقافته وخوفه والعوامل المحيطة به وعتبة الألم عنده ، يضاف إلى ذلك أن أعراض المرض الواحد تختلف من مريض لآخر ، وهكذا فإن الطب إلى جانب كونه علماً فمازالت الممارسة الطبية تحتفظ بمساحة واسعة من الفن ، كما أن الصلة الوجدانية والشعورية بين الطبيب والمريض مازالت تلعب دوراً مهماً في الممارسة الطبية
- 2 - دقة البيانات
ففي مجال الأشعة مثلاً : لكي يتعلّم النّظام القائم على الذكاء الاصطناعيّ كيفيّة تحديد المناطق الهامّة في صورة طبية ما بشكل صحيح ، يجب أن يتعلّم النظامُ من العديد من الصور التي سبق وعالجها وصنّفها البشر ، هذه العملية التعليميّة تسمّى "التّدريب". تستخدمُ خوارزميّات الذّكاء الاصطناعيّ قواعد بيانات هذه الصّور ، وذلك لتحديد القواعد الّتي يمكن تعميمها على الصّور الجديدة ، وهذا ما يسمى ( تعميم البيانات ) ، وهكذا فإن الاختلاف بين المراكز الطبية في المعدّات التي يستخدمونها لإنشاء الصّور ، وفي الظّروف البيئيّة التي يتمّ فيها التقاط الصورة، وفي الطريقة التي يميّز بها الأطباء الصّورة بعد تصنيفها ، وأيضًا في الخصائص الوراثية والبنيوية للسّكّان المُعالجين ، كل ذلك يمكنه أن يضرّ بقدرة الخوارزمية على التّعميم ، فالخوارزميّات المدرّبة على الصور التي تنتجها مستشفى ما ، قد لا تستطيع التعميم بشكل صحيح على الصّور التي أُنتجت في مستشفى آخر ، وعندما يتمّ تدريب الخوارزميّة على مجموعات سكّانية معينة ، فقد لا تكون بالضرورة قادرة على تعميم البيانات على فئات سكّانية كانت قد عولجت في مؤسّسة طبية أخرى.
- 3 - مصدر المعلومات والتحيز : لكي يتعلّم نموذج الذكاء الاصطناعيّ كيفيّة تصنيف المعلومات الطبية وتقديم تنبّؤ موثوق لتطوّر الحالة المرضية عند المريض ، يجب أن يتلقّى معلومات دقيقة وغير متحيّزة ، ومسببات التّحيّز موجودة في كل مكان ، تبدأ من المعدّات المستخدمة لأخذ العيّنة ، مروراً بالشخص الذي يقوم بمعالجة العيّنة ، وصولًا للمجموعة السكانية التي تمّ أخذ العيّنة منها ، ويشير الخبراء في مجال الذكاء الاصطناعي في الطب (AIM) إلى أن التحيزات يمكن أن تقوض فوائد هذه التقنيات ، ويمكن أن تؤدي إلى اتخاذ قرارات غير فعالة أو حتى ضارة في رعاية المرضى. والمقصود بالتحيز هو الرغبة في الميل إلى اتجاه معين، إما لصالح أو ضد شيء ما ، وفي موضوعنا يحدث التحيز من الناحية الإحصائية عندما لا تمثل البيانات بشكل كامل أو دقيق المجموعة السكانية التي يراد وضع نموذج لها ، كما يمكن أن يحدث هذا بسبب وجود بيانات سيئة منذ البداية ، أو يمكن أن يحدث عندما يتم تطبيق بيانات من مجتمع ما على مجتمع آخر بشكل خاطئ ، ويحدث التحيز العنصري أو ( الإثني ) عندما تتم دراسة بعض المجموعات السكانية بشكل أكبر، في حين أن البعض الآخر يمثل تمثيلا ناقصا.
قام البرفسور ( ديفيد كينت ) وفريق من الباحثين في مركز (تافتس ) الطبي في الولايات المتحدة ، قاموا بفحص 104 نماذج ذكاء اصطناعي تنبؤية سريرية لأمراض القلب والأوعية الدموية لمعرفة ما إذا كانت هذه النماذج ستعمل بشكل جيد عند اختبارها على مجموعة جديدة من المرضى ، ليتبين إن النماذج "كان أداؤها أسوأ من المتوقع" ولم تكن قادرة دائمًا على تمييز المرضى ذوي المخاطر العالية من المرضى ذوي المخاطر المنخفضة ، ففي بعض الأحيان بالغت الأدوات في تقدير خطر إصابة المريض بالمرض و قللت من شأنه في أحيان أخرى. وفي تفسير ذلك يقول البرفسور كينت : "النماذج التنبؤية لا تعمم كما يعتقد الناس أنها تعمم" ، فعندما نقوم بنقل نموذج من قاعدة بيانات إلى أخرى ، أو عندما تتغير الأشياء بمرور الوقت (من عقد إلى آخر) أو تتغير البيئة (مدينة إلى أخرى) يفشل النموذج في التقاط تلك الاختلافات .
- 4 - عمليّة تعلّم الذّكاء الاصطناعيّ تستخدم المعرفة الطبيّة الموجودة - على سبيل المثال : إذا كان من المعروف أنَّ بنية معينة من الأنسجة تشير إلى آفّة سرطانيّة ، فإنَّ التّصنيف الّذي تقوم به الآلة يوفّر وقتًا ثمينًا للطّاقم الطبي ، ولكنّه لا ينتج معرفة طبية جديدة ، إنَّ التّعلّم الآليّ يسمح لنا بتحليل كميات كبيرة من المعلومات وتتبّع العديد من المتغيّرات وتحديد العلاقات المعقّدة بينها والتّنبّؤ بالحالة الطبية للمرضى في المستقبل ، إلّا أنّه لا يقدّم تفسيرًا للآليّة التي تكمن وراء هذه العلاقات
ومن سلبيات تطبيق الذكاء الاصطناعي في الطب :
- نقص الشرح والشفافية :
توصف خوارزميات الذكاء الاصطناعي بأنها صناديق سوداء بمعنى أن هذه الأدوات يمكن أن تؤدي مهمة معينة دون إظهار الخطوات التي قامت بها لتنفيذ هذه المهمة ، وهذا يمكن أن يؤدي لانعدام الثقة بين المرضى ومقدمي الخدمات الطبية ، فالمرضى ينتظرون التشخيص ، وينتظرون كذلك الشرح والتفسير وتعليل خطوات العلاج
- من السلبيات أيضاً : الخوف من أن يقوم الذكاء الاصطناعي باستبدال أو التقليل من أهمية الخبرة البشرية أو أن تتعارض قرارات الذكاء الاصطناعي وتشخيصه مع تشخيص الطاقم البشري مع ما يترتب على ذلك من تبعات على نتائج العلاج ، وفي هذا الصدد يقول الباحث وجراح الأعصاب أنطونيو دي ليفا (Di leva) : إنَّ الآلات لن تحلّ محلّ الأطباء ، لكنّ الأطباء الذين يستخدمون الذّكاء الاصطناعيّ سيحلّون محلّ الأطباء الذين يتجنّبون استخدامه ، وإن لم نترك مهمّة التّشخيص للذّكاء الاصطناعيّ بالكامل ، فثمة مهامّ فرعيّة يمكن إسنادُها له ، وتكون بمثابة أداة مساعدة فعّالة
ضوابط إستخدام الذكاء الاصطناعي حسب تقرير منظمة الصحة العالمية
( كانون الثاني 2024 )
1. حماية إستقلالية الأفراد : ووضع الأطر القانونية الصارمة لحماية البيانات وحماية خصوصية المرضى
2. ضمان الشفافية وعدم استعصاء التطبيقات على الفهم البشري
3. تطبيق قوانين ولوائح تكفل استيفاء نماذج الذكاء الاصطناعي للالتزامات الأخلاقية ومعايير حقوق الانسان ، والحفاظ على كرامة الأشخاص
4. إجراء عمليات تدقيق إلزامية لإصدارات الذكاء الاصطناعي وتقييم آثارها على المرضى بوساطة طرف ثالث غير المصنّع والمستخدم
5. ألا يقتصر تصميم نماذج الذكاء الاصطناعي على المتخصصين التكنولوجيين والمهندسين ، بل يجب أن يشرك فيها المستخدمون ومقدمو الخدمات الصحية والمرضى ، وأن تتاح لهم فرصة إثارة المسائل الأخلاقية والإعراب عن هواجسهم
6. أن تصمم نماذج الذكاء الاصطناعي لأداء مهام محددة جيداً وبدقة وموثوقية
7. تعزيز المسؤلية والمساءلة ، وأن تستخدم هذه الآلات وفق شروط مناسبة من قبل أشخاص مدربين جيداً ، وإنصاف الأفراد والمجموعات التي تأثرت سلباً بقرارات اتخذت إستناداً إلى الخوارزميات
والبند الأخير هذا ، يفتح الباب واسعاً للحديث حول إشكاليات المسؤولية القانونية عن أخطاء أنظمة الذكاء الاصطناعي ، وذلك نظراً لتعدد الأطراف المشتركة في عمل هذه الانظمة من الذكاء ، ويبرز هذا الموضوع بوضوح وأهمية بالغة في عمل الروبوتات الجراحية التي وصل بعضها إلى الاستقلالية التامة في تنفيذ العمل الجراحي ، فهل تلقى مسؤولية الأخطاء على الآلة الذكية ذاتها ، أم على المصنع والمبرمج ، أم على المستخدم أو المشغل ، أم على أطراف خارجية تملك القدرة أحياناً على اختراق برمجيات الذكاء الاصطناعي
الثابت قانونياً في الوقت الحالي هو عدم الاعتراف للروبوت الطبي بالشخصية القانونية وذلك باعتبار أنه من الأشياء وليس من الأشخاص بما يترتب عليه عدم امكان مساءلته ، فأساس المسؤولية القانونية يرجع لحرية الاختيار والارادة ، لكننا اليوم أصبحنا أمام إدراك اصطناعي وليس مجرد ذكاء اصطناعي ، وهذا يطرح السؤال المهم والمربك عن الحاجة للاعتراف بالشخصية القانونية لنظام الذكاء الاصطناعي عموماً والروبوتات الجراحية خصوصاً وعن مدى واقعية هذا الأمر
محاولات قوننة أعمال أنظمة الذكاء الاصطناعي عالميا :
ظهرت الكثير من المحاولات لتنظيم الذكاء الاصطناعي على المستوى الدولي ولوضع منظومة قانونية له ، فالمسؤولية المترتبة على أفعال الذكاء الاصطناعي تثير مخاوف كل من له علاقة به لأنهم على معرفة بأن فكرة السيطرة على أعمال وقرارا ت الذكاء الاصطناعي ستصبح أصعب مع التطور الهائل الذي وصل وقد يصل إليه ، وهو ما يشكل خطراً حقيقياً على كل من له علاقة به ، والاتجاه السائد عالمياً يقوم على :
- إقرار مسؤولية ما يسمى بالنائب الإنساني المسؤول عن الروبوتات والذي قد يكون المصنّع ، أو المشغل ، أو المالك ، وذلك بحسب درجة الأضرار التي سببها الروبوت من جهة ودرجة السيطرة الفعلية للنائب الإنساني على الروبوت من جهة أخرى .
- تحديد وتنظيم مستوى المسؤولية المدنية عن أعمال أنظمة الذكاء الاصطناعي والروبوتات مع التطلع إلى إنشاء شخصية قانونية مستقلة خاصة بالروبوتات وأنظمة الذكاء الاصطناعي
وأخيراً لنخرج من الخاص إلى العام ، ونطرح السؤال الصعب الذي يشغل بال الكثيرين هذه الأيام ، وهو : هل يؤدي الذكاء الاصطناعي إلى فناء البشرية ؟؟
من جديد تعود الفلسفة أم العلوم إلى أبنائها بعد أن هجروها وابتعدوا عنها منذ زمن سحيق ، فالباحث والفيلسوف الكندي ( يشوا ينجيو ) أحد عرابي التعلم الآلي يقول : من اللحظة التي ستكون لدينا آلات مصممة كي تستمر ، سنواجه مشاكل .
وبوضوح أكثر يقول الفيلسوف السويدي ( ليك يستروم ) : ستأتي اللحظة الحاسمة عندما تعرف الآلات كيف تصنع آلات أخرى بنفسها ، مما يتسبب بانفجار الذكاء
في عام 2021 نُظمت حملة واسعة بعنوان " أوقفوا الروبوتات القاتلة " وفي هذا الصدد تقول خبيرة الروبوتات الكندية : ( بأن الذكاء الاصطناعي لن يمنح الآلات الرغبة في قتل البشر ) ، ورغم أنه تصريح مطمئن نوعاً ما ، فهو يقر ضمناً بأن مطوري هذه الروبوتات يمكن أن يبرمجوها لإلحاق الأذى بالبشر
لقد أجرت مجموعة من العلماء الذين استخدموا الذكاء الاصطناعي لاكتشاف أدوية جديدة ، أجروا تجربة عدلوا فيها بحوثهم بهدف تطوير جزيئات ضارة ، فتمكنوا من إنتاج 40 ألف عنصرٍ يمكن أن يكون ضاراً ، وذلك وفق مقال نشر في مجلة teacher machine intelligence
ويرى الفيلسوف ( هو برايس ) أنه " توجد إحتمالات أقل سوداوية من فناء البشرية ، يمكن فيها للبشر المعززين بالتكنولوجيا المتقدمة البقاءُ على قيد الحياة بينما الأنواع البيولوجية البحتة تنتهي بالانقراض "
وفي النهاية أختم بما يروى عن العالم ( انشتاين ) عندما وجه له زملاؤه اللوم على دعم البرنامج النووي الامريكي وما نتج عنه من جريمة هيروشيما وناغازاكي ، أنه قال : ( إكتشاف الطاقة النووية لا يزيد خطراً عن إختراع عود الثقاب ، لكن المشكلة في الأخلاق ) ، وسواء صحت نسبة هذه المقولة ( لانشتاين ) أم لا ، لكنها تبقى ذات رمزية ودلالة كبيرتين ، على أمل أن تحكم الأخلاق والانسانية عالمنا الذي أصبح قرية صغيرة جداً كما يقال
السويداء 9/ 6 / 2024
تعليقات
حول الموضوع
التعليقات المنشورة لا تعبر عن رأي المركز وإنما تعبر عن رأي أصحابها |
|
هل ترغب بالتعليق على الموضوع ؟ |