فيسبوك وأخلاقيات الذكاء الصناعي

إيطاليا تلغراف

 

 

 

 

*معتز الخطيب

 

 

ثار نقاش واسع في مايو/أيار الماضي 2021 حول التحيزات السياسية لموقع فيسبوك الذي حظر كثيرا من التعليقات والحسابات الصادرة عن فلسطينيين أو المؤيدة لهم أثناء القصف الإسرائيلي العنيف على غزة، الأمر الذي دفع ناشطين إلى إطلاق حملة ضد فيسبوك حينئذ لوقف ما أسموه “الإعدام الرقمي”. وقد نفى أحد التقنيين المصريين من العاملين في فيسبوك وقتئذ صحة هذا الاتهام؛ بحجة أن الموقع “يعتمد على تقنيات الذكاء الصناعي لتحديد المحتوى الذي يخالف القواعد”، وليس على مجرد “خوارزميات” (Algorithm)، وهذه القواعد معلنة وتختص بخطابات الكراهية والتحريض على العنف والعداء العنصري، وأن تقنيات الذكاء الصناعي هي “تقنيات تتعلم من البيانات والمعلومات المتاحة، وليس من السهل فهم كيف تعمل بالضبط”، وإن كان هناك هامش للخطأ فيها؛ لأنها ليست ذات كفاءة مطلقة، وأن “تنقيح المحتوى مشكلة معقدة وأصعب بكثير مما يتخيل البعض”، وأن ما شعر به من شعروا بالتحيز إنما هو نتيجة اعتقاد سابق بوجود تحيز، ومن ثم يتم تأكيده فقط من خلال أمثلة هي نتيجة الأخطاء الهامشية، وهو ما يسمى “تأكيد التحيز” (Confirmation Bias).

الحجة المقدَّمة هنا تبدو تكرارًا لحجة سابقة قدمها يان ليكون (Yann LeCun) رئيس فريق علماء الذكاء الصناعي في موقع فيسبوك، الذي اضطلع بدور رائد في تشكيل التقنية والنهج المعتمدين في المنصة الإمبراطورية. وقد ردّ ليكون على الانتقادات الموجهة لأداء المنصة أثناء جائحة كورونا وتأثيره في نشر المعلومات المضللة عن الفيروس والموقف من اللقاح، فقال إن فيسبوك ليس سببًا في حالة الاستقطاب هذه، أو ما يسمى بـ”فقاعات التصفية” (Filter Bubbles) التي تخلق بؤر اهتمام تجذب المستخدمين، بحجة أن “الدراسات الأكثر جدّية لا تثبت هذا”، وقال إن النقاد الذين يجادلون بأن فيسبوك يستفيد من انتشار المعلومات المضللة هم -في الواقع-مخطئون؛ لأن الموقع إنما يستخدم تقنية قائمة على الذكاء الصناعي لتصفية 3 أمور هي:

خطاب الكراهية والدعوة إلى العنف.
التنمر.
المعلومات المضللة التي تعرّض السلامة العامة أو العملية الديمقراطية للخطر. ثم إن فيسبوك “ليس حكَمًا على الحقيقة السياسية”، وهو إن قام بذلك فسيثير “أسئلة جدّية حول تصوراتنا عن الأخلاق والديمقراطية الليبرالية”، هذه خلاصة حجة ليكون.

وكان “ديفيد لور” (David Lauer) قد فنّد في دراسة له حجة ليان ليكون، ببيان أن فيسبوك أبرز حملات التضليل الإعلامي ونظريات المؤامرة من قبل الجماعات المتطرفة، وحولها إلى الاتجاه السائد (Main Stream)، وعزز عودة ظهور حركة مناهضة اللقاح ضد كورونا، وأثار كثيرا من التساؤلات على نطاق واسع بشأن تدابير الصحة العامة الخاصة بكورونا (COVID-19)، كما أسهم في انتشار الكذبة الكبيرة عام 2020 في أن الانتخابات الرئاسية الأميركية قد سُرقت من خلال تزوير الناخبين وهي المسألة التي قادت فيما بعد إلى اقتحام مبنى الكونغرس.

وقد طرح ديفيد 4 نقاط مهمة هنا في ما يخص فيسبوك، هي:

أولاً: أنه شكّل منبرًا للمتنمرين من جميع المستويات وعزز تسلطهم، بدءًا من المدارس ووصولًا إلى الطغاة الذين يستخدمون المنصة لنشر المعلومات المضللة، ومراقبة منتقديهم، واستمرار العنف، والتحريض على الإبادة الجماعية.

ثانيًا: مكّن من الاحتيال على المعلنين وغرف الأخبار بشكل منهجي وعالمي بمشاركة الفيديوهات المزورة والإحصاءات الخاصة بنشاط المستخدمين وما صار يعرف في قنوات الإخبار بالأكثر تفاعلًا.

ثالثًا: أنه يعبر عن أجندة سياسية تتبنّاها نواة صغيرة من قادة الشركات الذين يعرقلون سياسات الحوكمة الرشيدة.

رابعًا: السلطة الاحتكارية التي يتمتع بها فيسبوك للحفاظ على ريادة المشهد الإعلامي الاجتماعي، في غياب إشراف تنظيمي ذي مغزى، أو من دون حماية للخصوصية، أو تدابير للسلامة، أو مواطنة صالحة في عالم التواصل الاجتماعي.

ولكن وثائق فيسبوك المسرّبة من قبل فرانسيس هوغن -وهي مهندسة بيانات وموظفة سابقة في شركة فيسبوك- أعادتنا مجددًا إلى صلب النقاش السابق؛ فقد أثارت هوغن الجدل أخيرًا حول منهج عمل فيسبوك وأنه إنما يقدم الربح المادي على سلامة مستخدميه، وأن الخوارزميات التي يعتمدها في تصفية المحتوى الضار “عمياء”. وكانت صحيفة “وول ستريت جورنال” (The Wall Street Journal) قد نشرت أجزاء من هذه الوثائق في سبتمبر/أيلول الماضي وكشفت عن هوية مصدرها مطلع أكتوبر/تشرين الأول الحالي. وكلام هوغن ووثائقها يؤكدان مجددًا ما سبق أن قاله نقاد لفيسبوك من أنه قد استفاد -بشكل كبير- من المعلومات المضللة؛ لأنها تحقق مزيدًا من التفاعل، ومن ثم مزيدًا من الربح، وهذا يتماشى مع تاريخ تطور فيسبوك حتى تحول إلى إمبراطورية.

في إمبراطورية فيسبوك نحن أمام عالم مواز له قوانينه ومنطقه الخاص، ومن ثم فهو عابر للدول القطرية أو الوطنية ومثال نموذجي للعولمة، ويقوم منطقه الخاص -في رأيي- على أمور رئيسة هي:

التواصل الشبكي التفاعلي، وزيادة التفاعل تُتَرجم إلى زيادة السلطة والتأثير من جهة، وزيادة المال والربح من جهة أخرى. وهذا التفاعل يتميز بالوضوح والمباشرة بحيث يظهر للعيان، ثم هو قابل للقياس (عدد الإعجابات والتعليقات وإعادة المشاركة).

أنه يعتمد على تقنيات الذكاء الصناعي التي تستخدم كما هائلا من بيانات الخصوصية التي يُفرض على مستخدمي فيسبوك الإذن باستخدامها، وهو ما يعرضهم للانكشاف أمام الشركة نفسها من جهة، ويحولهم إلى مادة للتربح ويجعلهم غرضًا للتأثير من جهة أخرى، وذلك بتحليل أفعالهم وأفكارهم وانفعالاتهم التي توفرها بياناتهم، وبهذا يتعاظم تأثيره ونفوذه وأرباحه، ولا بد من الأخذ في الحسبان هنا أن مفهوم الفعل في عالم فيسبوك ووسائل التواصل الاجتماعي أوسع بكثير من الفعل التقليدي أو العادي؛ فحتى المراقب عن بعد أو المتصفح السلبي هو فاعلٌ يوفر مجموعة من البيانات والمعطيات من دون حاجة إلى أن يعلق أو يشارك أو يعبر عن انفعالاته بوسيلة من وسائل التعبير التي يقترحها فيسبوك.

زيادة معدل الانخراط (engagement) والتفاعل (traffic) معيار حاكم ومركزي في منطق فيسبوك، وهو يعكس سمة بنيوية في فلسفة هذه الإمبراطورية ومقاصدها الوظيفية والربحية على السواء، فحتى في حين يعتمد فيسبوك -مثلًا- وسيلة تقديم البلاغات لتحديد المحتوى السلبي بناء على تقويمات جمهور المستخدمين، وبلوغ ذلك حدًّا أو عتبة محددة؛ بوصفه معيارًا لحجب واستبعاد المحتوى الكاذب والمضلل، فهو في الظاهر يقوم بعمل ديمقراطي قد يبرّئه من التحيز إذ يلقي الكرة في ملعب مستخدميه، ولكنه إنما يفعل ذلك لحصد مزيد من التفاعل ومن ثم مزيد من الأرباح؛ لأنه سيستفيد أيضًا من الأخطاء أو الاستقطابات والاستقطابات المضادة في عملية تقويم المحتوى.
أنه محتكر بحكم الأمر الواقع، وهو مؤثر في شؤون الأفراد والدول والعالم، وهو تأثير فريد من نوعه في تاريخ البشرية. وتأثيره بوصفه منصة تفاعلية لم يعد محلَّ جدل أو تشكيك اليوم، بل إن هذه الإمبراطورية نفسها تقوم بأبحاث للاستثمار في هذا التأثير من أجل تطوير خدماته وتعظيم أرباحه عبر أمرين: الأول: استقطاب شرائح أوسع (المزيد من المواطنين في هذا العالم الموازي)، والثاني: زيادة معدل الاستخدام والمدة الزمنية التي يقضيها المستخدم على هذه المنصة ومنتجاتها الأخرى المرتبطة بها.

وفي هذا السياق، فإن شركة فيسبوك كانت تجري بحوثًا حول تأثير شبكة “إنستغرام” التابعة لها على المراهقين، وهو ما كشفت عنه الوثائق التي سرّبتها الموظفة السابقة في فيسبوك، وقد اتضح أن 32% من الفتيات المراهقات شعرن بأن استخدام “إنستغرام” عزز لديهن صورة أكثر سلبية عن أجسادهن على سبيل المثال. وحسب الوثائق، فإن جونا بيرتي مؤسس موقع (BuzzFeed) كان قد أرسل في خريف 2018 رسالة إلكترونية إلى مسؤول كبير في فيسبوك يخبره فيها أن المحتوى الأكثر إثارة للانقسام الذي أنتجه صحفيوه كان ينتشر انتشارا سهلا وكبيرا عبر المنصة، الأمر الذي كان يخلق حافزًا لإنتاج مزيد منه؛ نظرًا إلى زيادة التفاعل معه.

وقد أثبت مقال علمي كتبه كل من آدم كراميرا (Adam D. I. Kramera) وجيمي غيلوريب (Jamie E. Guilloryb) وجيفري هانكوك (Jeffrey T. Hancock)، ونُشر في مجلة (Proceedings of the National Academy of Sciences of the United States of America) سنة 2014، وجود ما أسماه “عدوى عاطفية واسعة النطاق” (massive-scale emotional contagion) تتسبب بها هذه الشبكات الاجتماعية، وقد توصل الباحثون إلى هذه النتيجة عبر دراسة تجريبية (Experimental evidence) تندرج ضمن مجال ناشئ من أبحاث العلوم الاجتماعية يتعلق بقضايا الخصوصية الشخصية (Privacy).

وحسب هذه الدراسة، يمكن نقل الحالة العاطفية لدى مستخدم هذه الشبكات إلى الآخرين (وهو ما سمي بالعدوى)، الأمر الذي يؤدي إلى أن الناس يختبرون المشاعر نفسها من دون وعي منهم، وهي تقدم دليلًا تجريبيًا على أن “العدوى العاطفية” تحدث أيضًا من دون وجود تفاعل مباشر بين المستخدمين، أي حتى في حالة الغياب التام لأي إشارات غير لفظية؛ فيكفي التعرض لتعليقات صديق يعبر عن عاطفة ما للتأثر به والشعور بمثل شعوره (قد يكون مفيدًا هنا القيام بدراسة مقارنة بين النقاش الكلامي الكلاسيكي حول العدوى في الأمراض، والعدوى في المشاعر في عالم شبكات التواصل الاجتماعي لتوسع منظوراتنا الكلامية والأخلاقية).

وأمام هذه المعطيات، نحن أمام سؤالين:

السؤال الأول مفاده: كيف يسهم فيسبوك في المحتويات السلبية والمتطرفة وخطابات الكراهية ونشر المعلومات المضللة؟ وهذا أمر يربك -عادة- الإعلام التقليدي والصحفي التقليدي من حيث كيفية التعاطي معه، وهذا سؤال أقرّ بأهميته نائب رئيس فيسبوك نِك كليغ، في تعليق على الوثائق المسربة والانتقادات لأداء الموقع.

السؤال الثاني والأهم: هو كيف نتصرف حيال النتائج التي يُتَوصَّل إليها بعد الإجابة عن السؤال الأول التي تفرض على فيسبوك -تحديدًا قبل غيره- اتخاذ خيارات محددة، والموازنة بين مصالح تبدو متناقضة؟ فضلًا عن السؤال عما إذا كان علينا أن نوجد جهة مستقلة تراقب هذا الأداء وفق معايير مستقلة؛ لأننا أمام عالم مواز يسعى لأن يفرض قوانينه الخاصة على العالم أجمع ويتأثر به الجميع، أي إن المسألة برمّتها تتعلق بالمصلحة الإنسانية العامة.

والآن لنرجع إلى تقنيات الذكاء الصناعي التي استُخدمت محورًا أساسيًّا في الحجة التي قدمها المدافعون عن فيسبوك وموضوعيته (وهم من العاملين فيه!)، خصوصًا أن هذه التقنيات لها دور كبير اليوم في عمل فيسبوك، وهي تقنيات ليست مستقلة تمامًا عن العامل البشري حتى الآن، فهي تُعلَّم بإشراف خبراء أو مزودي بيانات ويسمى التعليم الخاضع للإشراف (Self-Supervised Learning)؛ أي إن الذكاء الصناعي لا يؤسس نفسه بنفسه ابتداء (ما زالت الدراسات عن تطورات تطبيقات الذكاء الصناعي التي يمكن أن تؤدي به إلى أن يخرج عن السيطرة ويصبح محكوما بنفسه ذاتيا محل نقاش ولم نصل إليها بعد، وإن كانت هناك مؤشرات على إمكان حدوث ذلك في المستقبل).

فمزوّدو البيانات لهم دور حاسم في عملية التحليل النهائية التي تقوم بها أجهزة الحاسوب التي لا تعمل من فراغ. صحيح أنه يصعب -حتى الآن- فهم التفاصيل الدقيقة لكيفية قيام الأجهزة بعملية التحليل التي تحاكي ذكاء الإنسان ولكن بقدرات أوسع بكثير، غير أن ثمة أمرين حاسمين:

الأول: البيانات المعطاة ابتداء للقيام بالتحليل.

والثاني: السياسات التي ستُبنى على نتائج هذا التحليل، والتي ستعتمد على اتخاذ خيارات مكلفة من قبل الشركة، خصوصًا أن فيسبوك يستخدم تقنيات الذكاء الصناعي لتدريب الخوارزميات الخاصة به، وتحليل المحتوى المنشور على المنصة، والخوارزميات لها دور حاسم في ما نناقشه هنا والسياسات المبنية عليها.

من خلال تقنيات الذكاء الصناعي وبيانات المستخدمين وتعليقاتهم، وطرائق تفاعلهم مع تعليقات الآخرين (حتى في حالة الاكتفاء بمجرد التصفح والمراقبة فقط) يمكن تحديد خيارات المستخدمين وميولهم (وما يهمهم وما لا يهمهم)، ومن ثم التحكم بالتفضيلات التي تظهر لهم عبر صفحتهم وترتيب الأولويات حسب دائرة اهتماماتهم، وهذا يعني أن الخوارزميات تحدد الخيارات التي تُعرض للمستخدم وفق (نوعية المحتوى) الذي تفاعل معه المستخدم بصورة أكبر، وهنا يأتي الدور المركزي لفيسبوك في تحديد شكل الخوارزميات وخيارات عملها حسب نوعية المحتوى. فهل سيكون المعيار الحاسم والمحدد للسياسات لدى الشركة هنا هو “كثرة التفاعل” أو “مضمون المنشورات”؟

فآلية عمل الذكاء الصناعي هنا بناء على واحد من المعيارين السابقين (الأكثر تفاعلًا أو حسب المضمون غير المفضّل)، هي آلية موضوعية بالنظر إلى عمل التقنية نفسها، ولكنها ليست موضوعية بالنظر إلى المعايير والمحددات التي يفرضها معلّمو الذكاء الصناعي نفسه وموجّهوه. ثم في حالة ما إذا اعتمدت الشركة سياسة المضي وفق تعزيز معيار “الأكثر تفاعلًا” ومن ثم الأعظم ربحًا؛ فإننا سنكون أما إشاعة للمحتوى السلبي؛ لأنه حينئذ سيحقق مقاصد الشركة ومعايير النجاح والنمو لديها.

وقد كشفت هوغن بالفعل عن أن فيسبوك أجرى أبحاثًا توصل بها إلى أن المحتوى السلبي والمثير للغضب والانقسام يحظى بأهمية أكبر لدى المستخدمين؛ وذلك يعني أن مشاعر الغضب والفُرقة تتقدم على أي مشاعر أخرى تفاعليًّا، فالمحتوى الذي يحمل بذور العنف والكراهية يُبقي المستخدمين أوقاتا أطول على المنصة، وهو يصبّ في مصلحة الشركة ومقاصدها.

تثير هذه المعطيات إذن مسألة إشكالية، وهي تضارب المصالح حيث هناك تعارض بين معيار زيادة التفاعل (ومن ثم جذب المستخدمين وإبقاؤهم مدة أطول وعرض مزيد من الإعلانات، والحفاظ على نمو الموقع، وزيادة قيمته السوقية) من جهة، ومعيار سلامة مجتمع فيسبوك وأمانه من جهة أخرى. أي إن القائمين على إمبراطورية فيسبوك أمام خيار الترجيح بين ما هو مفيد للجمهور وما هو مفيد ومربح لهم، ومن ثم تحديد معايير الترجيح، وهذه نقطة أبعد مدى من النقاش الذي أثير أثناء العدوان الإسرائيلي على غزة ومسألة التحيزات السياسية لمصلحة إسرائيل (وهي صحيحة بالفعل)؛ إذ إنه يتناول منطق عمل فيسبوك نفسه.

وكان فيسبوك قد أجرى تعديلات على خوارزمياته قبل الانتخابات الرئاسية الأميركية في نوفمبر/تشرين الثاني 2020، وذلك للحد من انتشار المعلومات المضللة، ولكن هوغن كشفت أنه بمجرد انتهاء الانتخابات أعاد فيسبوك الخوارزميات كما كانت عليه من قبل. ونحن هنا أمام تفسيرين:

الأول: يقدمه مارك زوكربيرغ الذي يزعم أن الهدف هو تقوية الروابط بين المستخدمين والتفاعل بشكل أكبر مع الأصدقاء والعائلة، وقضاء وقت أقل في استهلاك المحتوى السلبي الذي أثبتت بعض الأبحاث أنه يؤثر في الصحة العقلية للمستخدمين.

الثاني: كشفت عنه الوثائق المسربة، وهو أن بعض الموظفين تحدثوا عن أن الشركة لاحظت انخفاضًا في معدل التفاعل على المنصة، وهو ما أثار قلق القائمين على الشركة، وقد يكون سببًا جزئيًّا في تغيير الخوارزمية لضمان تفاعل أكبر.

والعامل الحاسم في هذه المسألة هو الإفصاح عن بيانات معدلات الاستخدام قبل وبعد، وهو أمرٌ لا أظن أنه ممكن من قبل الشركة. ونظرًا لهذه الاعتبارات كلها، فقد وُصفت خوارزمية فيسبوك لاكتشاف المعلومات التي تحض على العنف بأنها “عمياء”؛ ومن الواضح أن هناك تشكيكًا في رغبة فيسبوك نفسه في تطويرها؛ لأن لذلك تأثيرات سلبية على أرباح الشركة وموقعها في السوق، بل إن الوثائق المسربة توضح أن الرئيس التنفيذي قاوم بعض الإصلاحات المقترحة لأنه كان قلقًا من أنها قد تضرّ بالهدف الآخر للشركة، وهو زيادة تفاعل المستخدمين على المنصة، وذلك حسب مذكرة داخلية قدمتها آنا ستيبانوف التي قادت فريقًا لمعالجة انتشار المحتوى الضار والمثير للانقسام على المنصة، وقدمتها إلى زملائها بعد الاجتماع في أبريل/نيسان 2020، وتوضح أن خيار زوكربيرغ هو أنه لن يقايض التغييرات المقترحة بحجم التفاعل على المنصة، وهو الأمر الذي أكدته أيضًا هوغن حين قالت إن زوكربيرغ “سمح باتخاذ خيارات” للترويج لنشر محتوى يحض على الكراهية.

يؤكد ذلك ما خلصت إليه دراسة ديفيد لور (David Lauer)، ومفادها أن إخفاقات فيسبوك الأخلاقية ليست نتيجة عرضية (not accidental) ولا هي مشكلة تقنية؛ بل هي جزء بنيوي من نموذج العمل (Business Model) الذي يكشف عن فجوة وتناقض بين ما هو هدف معلن للشركة من جهة، وواقع ممارستها من جهة أخرى. ففيسبوك يعلن أن مهمته هي تمكين الأشخاص من بناء مجتمع عالمي وتقريب العالم بعضه من بعض، ولكن نموذج عمل فيسبوك يؤكد أنه من المربح أكثر بكثير أن “يفرق بيننا من أن يجمع بيننا” (far more profitable to drive us apart). فإنشاء “فقاعات التصفية” وتصميم خوارزميات وسائل التواصل الاجتماعي قائم على مقصد زيادة المشاركة، ومن ثم تعظيم ما سماه غرف الصدى (Echo Chambers) التي تحقق مزيدًا من التفاعل الشبكي التراكمي حيث يحقق المحتوى الأكثر تحريضًا أكبر قدر من الانتشار (visibility). وعلى هذا يستفيد فيسبوك من انتشار التطرف والبلطجة وخطاب الكراهية والمعلومات المضللة ونظرية المؤامرة والعنف الخطابي، وهذا يعني أن الحلول القائمة على التكنولوجيا لوقف مدّ المحتوى الإشكالي ستفشل دومًا؛ لأن فيسبوك إذا استخدم نموذجًا تجاريًا يركز على توفير معلومات دقيقة ووجهات نظر متنوعة بكفاءة بدلًا من إدمان المستخدمين على محتوى شديد التفاعل داخل غرف الصدى، فإن النتائج من حيث التأثير والربح ستكون مختلفة تمامًا.

يبدو أن السيناتور ريتشارد بلومنتال قد كان محقًّا جدًّا حين كتب في بيان له أن “تصرفات شركة فيسبوك تظهر -بوضوح- أنها لن تُصلح نفسها بنفسها؛ نحن بحاجة إلى تنظيم أكثر صرامة”، أي إننا في رأيي أمام تحيز بنيوي (inherited bias) لا ينفع معه إلا تفكيك مركز السلطة نفسها؛ في مسألة تمس أمن العالم والصحة النفسية والعقلية للعالم أجمع دولًا وأفرادًا.

*أستاذ فلسفة الأخلاق في كلية الدراسات الإسلامية بجامعة حمد بن خليفة

إيطاليا تلغراف


شاهد أيضا
تعليقات
الآراء الواردة في التعليقات تعبر عن آراء اصحابها وليس عن رأي جريدة إيطاليا تلغراف.
تعليقات الزوار
Loading...