الحاجة الملحة إلى ذكاء اصطناعي واعٍ أخلاقياً ومسؤول ويعمل لصالح البشر

إيطاليا تلغراف

 

 

 

 

عز الدين طيطي
باحث ومتخصص في الذكاء الاصطناعي

 

 

مع استمرار تقدم الذكاء الاصطناعي (AI) بوتيرة غير مسبوقة، تُثار أسئلة عميقة حول دمج القيم (Ethics) والمبادئ الأخلاقية (Morals) في تطوير ونشر هذه التقنية القوية، فمع تزايد انتشاره في مجالات متوسعة في حياتنا، أصبح من الأهمية بمكان تحديد وفهم التأثيرات الأخلاقية التي تنشأ عن استخدامه، وضمان أن تكون لصالح البشرية.

نحاول في هذه المقالة استكشاف وفهم التفاعل المعقد بين القيم والمبادئ الأخلاقية من جهة، والذكاء الاصطناعي من الجهة الأخرى، وتسليط الضوء على التحديات التي نواجهها والفرص التي تنتظرنا في هذا الخصوص. أول وأبسط هذه التحديات تتعلق بالخصوصية وحماية البيانات، لأن أنظمة الذكاء الاصطناعي تحتاج إلى، وتعتمد على، كميات هائلة من البيانات لتعمل بفعالية. وكانت هذه إحدى ميزات تطبيق ChatGPT الذي تدرب على 570 غيغابايت من الكتب والمقالات وصفحات الإنترنت، وهي كمية هائلة تفوق أي تقديرات. وهذا يثير مخاوف بشأن جمع المعلومات الشخصية وتخزينها واستخدامها دون التعدي على حقوق الخصوصية الفردية.

ثاني هذه التحديات تتعلق بالتحيز والإنصاف.. فخوارزميات الذكاء الاصطناعي يمكن أن تديم وتعمق التحيزات الموجودة في البيانات المستخدمة دون قصد، مثلاً عندما سُئِلَ تطبيق ChatGPT عما يميز العلماء، قال إن العلماء يجب أن يكونوا ذكوراً وتحديدا من ذوي البشرة البيضاء، وبالتالي فقد استبعد جنس الإناث وكل ذوي البشرة السوداء. السبب وراء هذا الاستنتاج الخاطئ هو، إما قلة البيانات المُدخلة التي تدعم حقيقة وجود علماء إناث وعلماء ذوي بشرة سوداء، أو تحيز البيانات التي تم تدريب التطبيق عليها والتي تحمل تصريحاً أو تلميحاً هذا الاستنتاج الخاطئ. يثير هذا المثال تساؤلات حول عدالة ونزاهة عملية صنع القرار في مجال الذكاء الاصطناعي، لاسيما في مجالات مثل التوظيف والإقراض والعدالة الجنائية، ولكم ان تتخيلوا بالقياس على المثال آنف الذكر، ما يمكن أن يحدث لو كان السؤال عن: أي الشعوب والديانات الأكثر قدرة على التطور والتقدم؟

التحدي الثالث يتعلق بالمساءلة والشفافية، لأن تعقيد نماذج الذكاء الاصطناعي يجعل من الصعب، في الوقت الحالي، فهم كيفية سير عمليات صنع القرار وتوقع نتائجها، ما يؤدي إلى نقص في الشفافية الذي من شأنه خلق مخاوف بشأن محاسبة أنظمة الذكاء الاصطناعي على أفعالها. وأخيراً هناك تحدي الاستقلالية والمسؤولية، فعندما يصبح الذكاء الاصطناعي أكثر تطوراً، تنشأ أسئلة حول مستوى الاستقلالية التي نمنحها لهذه الأنظمة والمسؤولية عن أفعالها. من هو المسؤول عندما يتسبب نظام الذكاء الاصطناعي في ضرر أو يتخذ قراراً مشكوكا فيه من الناحية الأخلاقية؟ مثلا، من المسؤول في حال قامت سيارة تسلا (آلية القيادة) بالتسبب بحادث سير؟

معضلة العربة في الذكاء الاصطناعي

معضلة العربة هي تجربة فكرية فلسفية كلاسيكية اكتسبت أهمية متجددة في سياق الحديث عن الأخلاقيات والذكاء الاصطناعي. وهي تمثل معضلة أخلاقية تتحدى حدسنا الأخلاقي في ما يتعلق بقيمة الحياة البشرية والخيارات التي يجب أن تتخذ في المواقف الصعبة. تقوم «معضلة العربة» على تخيل مركبة ذاتية القيادة تسير على طريق مع مرور خمسة مشاة عند تقاطع. فجأة، ينشأ موقف غير متوقع، حيث يجب على السيارة أن تقرر بين عدم التصرف، أي مواصلة السير، وبالتالي دهس خمسة أشخاص، أو الانحراف على الرصيف ودهس شخص واحد. كيف يجب برمجة نظام الذكاء الاصطناعي للاستجابة لمثل هذه المواقف؟ تسلط هذه التجربة الفكرية الضوء على التحديات الأخلاقية التي تظهر عندما نمنح أنظمة الذكاء الاصطناعي القدرة على اتخاذ قرارات مصيرية. كذلك تجبرنا على التفكير في أسئلة مثل: كيف نبرمج الذكاء الاصطناعي لاتخاذ خيارات أخلاقية في المواقف الضبابية؟ لصالح من يجب تطبيق المبادئ الأخلاقية في خوارزميات اتخاذ الذكاء الاصطناعي قراراته في المثال السابق؟ هل ينبغي للسيارات ذاتية القيادة إعطاء الأولوية لحياة ركابها، أو إعطاء الأولوية لتقليل الضرر العام، بغض النظر عمن يتأثر؟ تكشف معضلة العربة أيضاً الحاجة إلى الشفافية والمساءلة في أنظمة الذكاء الاصطناعي، من أجل أن يكون مستخدمو ومطورو تقنية الذكاء الاصطناعي قادرين على فهم كيفية اتخاذ الذكاء الاصطناعي للقرارات في سيناريوهات غامضة أو مبهمة أخلاقياً، بالإضافة إلى ذلك، يجب أن تكون هناك آليات وقوانين لمساءلة أنظمة الذكاء الاصطناعي عن أفعالها، تماما كما نحاسب البشر على خياراتهم.

الحاجة إلى تطوير ذكاء اصطناعي واعٍ أخلاقياً

لمواجهة التحديات الأخلاقية التي يطرحها الذكاء الاصطناعي، هناك حاجة متزايدة لتطوير ونشر ذكاء اصطناعي واعٍ أخلاقياً، حيث يجب على الشركات والباحثين وواضعي السياسات التعاون لدمج المبادئ الأخلاقية في أنظمة الذكاء الاصطناعي في المهد (منذ بداية تطويرها). ويجب عليهم أخذ الاعتبارات الرئيسية التالية بالحسبان:
* تطوير شامل ومتنوع: إشراك الفئات المتنوعة (من جنس وعرق وخلفيات ثقافية متنوعة) ذات وجهات نظر متنوعة في تحديد وتخفيف التحيزات في أنظمة الذكاء الاصطناعي، ما يؤدي إلى تقنيات أكثر شمولاً ونزاهة.
* القابلية للتفسير والشفافية: يجب تصميم نماذج الذكاء الاصطناعي لتقديم تفسيرات لقراراتها، من خلال تبيان سلسلة العمليات التي أدت إلى القرار، أو العوامل التي تم الاعتماد عليها خلال ذلك، ما يسمح للمستخدمين بفهم الأسباب الكامنة وراء النتائج.
* المراجعة والمراقبة المنتظمة: يمكن أن تساعد المراقبة والتدقيق المستمران لأنظمة الذكاء الاصطناعي في اكتشاف وتصحيح المشكلات الأخلاقية التي قد تنشأ أثناء استخدامها.
* مشاركة الجمهور: يجب أن يتضمن تطوير الذكاء الاصطناعي الواعي أخلاقياً مُدخلات من الجمهور الأوسع لضمان توافق التكنولوجيا مع القيم والمخاوف المجتمعية، وهذا ما فعله عالم الذكاء الاصطناعي السوري الأسترالي إياد رهوان خلال وجوده في معهد ماساشوستس للتكنولوجيا (MIT) في نيويورك حين أنشأ مشروع «الآلات الأخلاقية» وقام بتسجيل إجابات العامة على معضلة العربة، معروضة بنسخ مختلفة مثل استبدال الخمسة أشخاص بخمسة حيوانات.

خاتمة

يعد دمج القيم والمبادئ الأخلاقية في تطوير الذكاء الاصطناعي ونشره عملية مستمرة وحاسمة، ومع تزايد انتشار الذكاء الاصطناعي، يجب علينا أن نتصدى بشكل استباقي للتحديات الأخلاقية التي يفرضها، مع الاستفادة من إمكاناته لتعزيز رفاهية الإنسان والتقدم المجتمعي، فمن خلال الالتزام بالمبادئ الأخلاقية، وتعزيز الشفافية، وإشراك وجهات نظر متنوعة، يمكننا ضمان بقاء الذكاء الاصطناعي قوة من أجل الخير والتقدم للجميع، ومواءمة قدراته مع القيم والمبادئ الأخلاقية الجماعية لدينا من أجل مستقبل أكثر إشراقا. في الوقت نفسه، يمكن أن تقودنا معالجة معضلة العربة في الذكاء الاصطناعي إلى تطوير أنظمة ذكاء اصطناعي أكثر مسؤولية وأخلاقية تعطي الأولوية لرفاهية الإنسان أثناء التغلب على المعضلات الأخلاقية المعقدة.

 


شاهد أيضا
تعليقات
الآراء الواردة في التعليقات تعبر عن آراء اصحابها وليس عن رأي جريدة إيطاليا تلغراف.
تعليقات الزوار
Loading...