كيف يكون الذكاء الإصطناعي إنسانيا في صالح البشر، وهل يتعذر ذلك ولماذا؟ هذا موضوع كتاب جديد لمحمد شومان أستاذ الإعلام في جامعة عين شمس، والعميد السابق المؤسس لكلية الاتصال والإعلام في الجامعة البريطانية في القاهرة، وصاحب الدراسات المهمة مثل «الإعلام.. الهيمنة الناعمة وبدائل المواجهة» وغيره. الكتاب صادر في يناير/كانون الثاني هذا العام،عن بيت الحكمة للنشر في القاهرة، وله عنوان فرعي هو «الأخلاقيات والقوانين».
الذكاء الإصطناعي لم يعد خيالا، لكنه واقع شائع شملت تطبيقاته كل مكان وزمان وكل نشاط. لكن ظهرت له مشاكل كثيرة يناقشها الكتاب منها، انتهاك حقوق الملكية الفكرية. شركات الذكاء الإصطناعي مثلا لا تدفع مقابلا ماليا للمؤلفين، صحافيين أو مفكرين أو مبدعين، فآلاف الكتب مقرصنة. تدافع الشركات عن نفسها أنها تستخدم البيانات في إطار الاستخدام العادل، وتقصد استخدام المواد المحمية بحقوق الطبع والنشر، دون إذن أو تصريح، بغرض استخدامها في النقد والتعليق والتدريس والبحث.
هذا يثير إشكاليات متعددة، فعدم حصول المؤلفين على حقوقهم المالية، قد يفتح الطريق لسيادة التأليف الآلي، عبر نماذج وتطبيقات الذكاء الإصطناعي. الإشكالية الثانية هي رأسمالية الذكاء الإصطناعي، التي تلخص المشهد الآن بالأنشطة داخل المجال الرقمي، مثل الإنترنت والتجارة الإلكترونية، وتقوم على البيانات الضخمة والتخزين السحابي والمنصات وغيرها، لها دورها حقا في النمو الاقتصادي وتحسين قرارات المستهلكين، لكن في المقابل تتسبب في اختفاء أو تقليص عدد المشتغلين في مهن كثيرة، مثل الطب أو التعليم أو المحاماة أو الصحافة. كما تثير الخوف من انتهاك خصوصية الأفراد، وتركيز السلطة في يد عدد محدود من الشركات، مثل غوغل ومايكروسوفت وأمازون وميتا وعلي بابا الصينية وغيرها. ولأن معظم الشركات من عالم الشمال، يحدث استغلال لعالم الجنوب بطرق مختلفة منها، استخراج البيانات للمستخدمين من الجنوب، وتحقيق الربح منها، واستخدام العقول المهاجرة من الجنوب بأجور زهيدة، وهذا شكل جديد من الاستعمار، هو الاستعمار الرقمي. الإشكالية الثالثة هي المراقبة الجماعية البيومترية. بمعنى متابعة ومراقبة وتحليل صور وسلوكيات الأفراد والجماعات، بناء على سماتها البيولوجية الفريدة، مثل ملامح الوجه والجسد وطريقة المشي وبصمة الأصابع. يمكن أن يفيد ذلك في الحد من الجرائم حقا، وتأمين الحدود من المهربين والهجرة غير الشرعية وغيرها، لكن له أخطاره، فيمكن للحكومات الاستبدادية استخدامها لقمع المعارضة.
كما تستخدم هذه المراقبة الجماعية البيومترية في الحروب، كما فعلت أمريكا في العراق وأفغانستان، وإسرائيل مع غزة ولبنان. رابع إشكالية في استخدام الذكاء الإصطناعي تكون في الصحافة والإعلام، حيث ستنتشر أتمتة الصحافة والإعلام لتكون أسرع وأرخص، لأنها ستجمع بيانات مهمة عن شخصية كل متابع لها، ومن ثم يمكن التزييف والتلاعب بالجمهور. كما سيؤثر الأمر على الصحافة بشكلها الحالي فيختفي الصحافيون، وما يحمله ذلك من اختفاء روح النقد والإبداع الإنساني في التقارير الإخبارية.
الإشكالية الخامسة هي تخصيص المحتوى وغرفة الصدى.. تخصيص المحتوى يعني تخصيص مادة إعلامية معينة لجمهور محدد، ولأن الإعلام الرقمي يتتبع سلوك المستخدمين ويتوقعه، يمكن تقديم مجموعة مختارة من خيارات الترفيه والمعلومات والإقناع بطرق مخصصة للغاية للأفراد. فكرة المضامين المخصصة ترجع لعام 1995 عندما تمكنت الخوارزميات من معلومات الأشخاص. الخوارزميات هي باختصار إجراءات أو صيغ متدرجة لحل المشكلات، والمشكلة هنا هي حدود حرية الخوارزميات، حيث يظهر أن مبرمجي الخوارزميات لديهم تحيزات أيديولوجية، أو عرقية أو دينية أو ثقافية. للخوارزميات القدرة على إنشاء غرف الصدى والاستقطاب. غرفة الصدى تظهر في مبادرة المستخدم بالانضمام، أو تشكيل مجموعة تتفق مع أفكاره، دون مناقشة مع المختلفين، فتصبح المساحة الإعلامية محدودة مغلقة، متضخمة معزولة عن وجهات النظر الأخرى، تصبح سجونا فكرية غير مرئية تؤدي إلى التطرف وتعزيز الاستقطاب الفكري.
الإشكالية السادسة هي اختطاف الذكاء الاصطناعي، أو حروب أمن الذكاء الإصطناعي مثل الاختراق السيبراني. ثم يأتي الحديث عن جهود تنظيم الذكاء الإصطناعي في عصر التكنولوجيا الكمومية، وهي مجال ناشئ في الفيزياء والهندسة، يعتمد على مبدأ علوم فيزياء الكم، وظهرت تطبيقاته في الحوسبة الكمومية، وأجهزة الاستشعار الكمومية، والتشفير الكمومي وغيرها. والاندماج بينها وما سينتج عنها من تحولات في حياة البشر. ولهذا سماته الرئيسية. منها السيولة الشديدة والخضوع للتكنولوجيا، والخوف من استقلال الذكاء الإصطناعي عن المبرمجين. وهنا نجد ثلاثة تيارات. الأول مؤيد ومتحمس للتطورات التكنولوجية، والثاني متشائم ومتخوف من الأضرار الناتجة عن نشر التكنولوجيا على نطاق واسع، دون تنظيم أخلاقي وقانوني لها، والثالث يسعى إلى تحقيق التوازن والتعايش بين التيارين.
ينقلنا هذا إلى مفهوم مهم جدا هو مفهوم «ما بعد الحقيقة» حين تكون الحقائق الموضوعية أقل أهمية في تشكيل الرأي العام، من نداء العاطفة والمعتقدات الشخصية. هو مفهوم يعود إلى أوائل التسعينيات حين استخدمه الكاتب المسرحي الصربي ستيف تيسيتش في مقال له. بعدها أصبح هذا المفهوم تحديا كبيرا لكل المجتمعات، بعد أن ساعد التحول الرقمي والإعلام، ليس فقط في الدول الديمقراطية، ولكن في كل مكان، على التلاعب بالرأي العام واستغلاله، فبدا كأن الخط الفاصل بين الحقيقة والباطل غير موجود. صارت الأفكار المزيفة والحقائق البديلة والنشر المتعمد لها ونظرية المؤامرة حاضرة، إذ أضفت إلى ذلك تعرض خصوصية المواطن للأخطار، فلا بد من اتفاق تطبيقات الذكاء الإصطناعي والميتا فيرس وغيرها، وكذلك دول العالم، على قوانين ومواثيق تمنع ذلك. كما لا بد أن تبادر المؤسسات العامة، لتسخير التكنولوجيا في مكافحة ما بعد الحقيقة، من خلال تصفية المعلومات والتأكد من مصداقيتها، وغرس التفكير النقدي في مناهج التربية والتعليم، وضرورة دعم مؤسسات مجتمعية مستقلة، للتدقيق وكشف الصور والمعلومات الزائفة.
على الجانب الآخر محو أمية الذكاء الإصطناعي أمر مهم، لا يقل أهمية عن محو الأمية المعروف تاريخيا. والأمية هنا هي نقص المهارات والقدرات المطلوبة لاستخدام التقنيات الرقمية. ومحوها يكون بمعرفة ماهية أجهزة الذكاء الإصطناعي، وفهم المبادئ الأساسية لكيفية عملها، والقدرة على فهم البيانات وتفسيرها، والوعي بالاعتبارات الأخلاقية والتحيزات المحتملة لمبرمجي الذكاء الإصطناعي.
ينقلنا هذا إلى الحديث عن مثال مهم هو الذكاء الإصطناعي الأخضر، وهو الذي يحافظ على البيئة. صارت شركات تستخدم أدوات الذكاء الإصطناعي لاستعادة الأدوات القابلة للتدوير، بالاعتماد على الروبوتات، ومكافحة الحرائق إذ يمكنها اكتشاف الحريق مبكرا. فمثلا يستخدم برنامج الأمم المتحدة للبيئة «يونيب» الذكاء الإصطناعي للمساعدة والتنبؤ بأماكن تركيز ثاني أكسيد الكربون. لكن الذكاء الإصطناعي نفسه أحد عوامل تدمير البيئة، بما يستهلكه من الطاقة من المياه أو الكهرباء. ومن ثم فالذكاء الإصطناعي الأخضر للحفاظ على البيئة، يقابله الأحمر في أضراره عليها. لكن يظل للأخضر أهميته وحاجة البشرية له. ويأخذنا محمد شومان في رحلة مع مواجهة المخاوف الأخلاقية والإنسانية والبيئية التي أثارها الذكاء الإصطناعي. الأفكار التي طُرحت في العالم، والقوانين والمواثيق التي صدرت تؤكد مثلا، ضرورة احترام الخصوصة وعدم التمييز والحفاظ على البيئة. وكيف يتعذر تطبيقها كثيرا. تفشل محاولات إدخال مبادئ الأخلاق في تطوير الذكاء الاصطناعي، لأنه يجري في بيئة رأسمالية قد تكون فارغة أخلاقيا، كما أن هناك هيمنة للثقافة الغربية على الأطر والمواثيق الأخلاقية للذكاء الإصطناعي السائد، معظم هذه الأطر والمواثيق مثلا تركز على البشر، وتتجاهل الحيوانات والبيئة، وكل ما هو غير إنساني. من أهم القوانين التي صدرت، القانون الأوروبي للذكاء الإصطناعي لتجفيف الآثار السلبية المحتملة لتقنياته. يشرح المؤلف محمد شومان كثيرا من المواد الخاصة بالقانون، ثم يتحدث عن نقاط ضعف تتجلى في افتقاره إلى بعض جوانب التنفيذ الفعال، والإشراف والرقابة وغيرها. ومن ثم يظل ترويض هذا الطوفان أمرا ضروريا، للوصول إلى ذكاء إصطناعي إنساني لصالح البشر، قبل أن يخرج البشر من الصورة وتحل محلهم آلات الذكاء الإصطناعي، فلا أحد على يقين من أنها ستضع وحدها طرقا أخلاقية لعملها.
ينتهي الكتاب مع رحلة ممتعة فكريا وعلميا تستحق الاحتفاء بها وبكاتبها محمد شومان.
*القدس العربي