الذكاء الاصطناعي.. نعمة أم نقمة على البشرية؟

منذ إطلاقه للاستخدام من قبل العموم، أحدث تطبيق «تشات جي بي تي»، روبوت الدردشة الذي يعتمد على الذكاء الاصطناعي، الذي طورته شركة «أوبن إيه آي»، سباقاً محموماً بين شركات التكنولوجيا لتطوير تقنيات مماثلة تعتمد على الذكاء الاصطناعي التوليدي.

ويجيب التطبيق على أسئلة وطلبات المستخدمين باستخدام الذكاء الاصطناعي، وهو قادر على حل مسائل رياضيات معقدة، وكتابة نصوص ورموز برمجة أيضاً، بالرغم من بعض الأخطاء والأجوبة الغريبة التي يقدمها.

هذه الشعبية الهائلة لبرنامج مثل «تشات جي بي تي»، الذي استطاع أن يجذب 100 مليون مستخدم شهرياً بعد إطلاقه بفترة بسيطة، أثارت قلق الحكومات لما يمكن أن يفعله الذكاء الاصطناعي ودفعها إلى الذهاب باتجاه وضع أطر تنظيمية لهذا الأمر، خوفاً من تأثيره على مستقبل البشرية جمعاء وتهديده للأمن القومي لهذه الدول.

تتوالى التحذيرات بشأن مخاطر الذكاء الاصطناعي، ففي مارس 2018، اعتبر الملياردير الأمريكي إيلون ماسك في تصريح أن «الذكاء الاصطناعي أكثر خطورة من الأسلحة النووية». كما دعا في رسالة مفتوحة خلال مارس 2023، إلى جانب مجموعة من خبراء الذكاء الاصطناعي والمديرين التنفيذيين في القطاع، إلى «التوقف لمدة ستة أشهر عن تطوير أنظمة أقوى من روبوت الدردشة «شات جي.بي.تي-4» الذي أطلقته شركة أوبن إيه.آي في الآونة الأخيرة»، مشيرين إلى «المخاطر المحتملة لمثل هذه التطبيقات على المجتمع».

من جهته، حذر اختصاصي الذكاء الاصطناعي غاري ماركوس، أقرانه والنواب والجمهور عموماً من المخاطر المرتبطة بتطوير أدوات هذا المجال الجديدة وانتشارها الفائق السرعة، لكنه اعتبر في حديث أجراه مع «فرانس برس»، أن «مخاطر انقراض البشرية مبالغ فيه، ولكن قد يجر الذكاء الاصطناعي العالم إلى حرب عرضية يمكن أن تتحول إلى حرب نووية».

كما حذر عدد من قادة شركات التكنولوجيا بمن فيهم سام ألتمان ومديرون تنفيذيون من «ديب مايند» و«مايكروسوفت»، في بيان صادر من مركز أمان الذكاء الاصطناعي من أن «الذكاء الاصطناعي قد يؤدي إلى خطر انقراض البشرية»، مؤكدين أن «تقنينه والسيطرة عليه يجب أن تعطى لهما الأولوية القصوى إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية».

وبالتزامن مع هذا البيان، حصلت حادثة جاءت لتؤكد المخاوف من هذه التكنولوجيا، حيث قتلت طائرة عسكرية أمريكية مسيّرة، مزودة بنظام الذكاء الاصطناعي، مشغلها أثناء اختبار محاكاة للجيش، وفق تصريحات صدرت عن العقيد تاكر سينكو هاميلتون، رئيس اختبارات وعمليات الذكاء الاصطناعي في القوات الجوية الأمريكية، خلال مؤتمر القدرات القتالية الجوية والفضائية المستقبلية في لندن في مايو 2023. وأشار هاميلتون حينها إلى أن «نظام الذكاء الاصطناعي استخدم استراتيجيات غير متوقعة إطلاقاً، لتحقيق هدفه في اختبار المحاكاة». لكنه عاد وتراجع عن كلامه في وقت لاحق. فمع كل هذه التحذيرات والحوادث، هل تعتبر هذه التكنولوجيا الجديدة مفيدة للبشرية أم خطراً عليها؟.

مراحل خطيرة

قول الخبير في أمن المعلومات والتحول الرقمي رولان أبي نجم، في حديث ل «الخليج»: «إن الذكاء الاصطناعي لن يستبدل البشر، بل من سيتبدل البشر الذين يحسنون استخدام الذكاء الاصطناعي»، مشيراً إلى أن «الذكاء الاصطناعي سيؤثر بطبيعة الحال في عدد من الوظائف، فهناك مصانع كبيرة بدأت في إحلال الآلة مكان الإنسان، وأغلب الوظائف التي يوجد فيها روتين وظيفي، أي نفس المهام كل يوم هي التي سيحل محلها الذكاء الاصطناعي، أما الأعمال التي بحاجة إلى الذكاء البشري فلن يستطيع الذكاء الاصطناعي الحلول مكان الإنسان فيها أقله على المدى المنظور».

ويشدد رولان على أنه «مع كل الإيجابيات لاستخدام الذكاء الاصطناعي، فليس علينا أن ننخدع بالتسويق الذي يجري حالياً لهذه التقنيات بأنها قادرة على فعل أي شي، فصحيح أنها قادرة على القيام بالعديد من الأشياء بشكل أفضل، ولكن هناك مخاطر عديدة ناجمة عن استخدام تلك التي تستطيع اتخاذ قرارات بنفسها»، لافتاً إلى أنه «في الآونة الأخيرة، شهدنا عدداً من هذه الحالات ومن بينها ما حدث مع الطائرة بدون طيار التي تمردت على مدربها وقامت بمهاجمته لأنه قرر توقيفها عن القيام بالمهمة المطلوبة منها».

ويؤكد رولان أن «الذكاء الاصطناعي لن يحل محل الإنسان بشكل كامل، بل هو بحاجة إلى أشخاص من أجل تدريبه وإدارته بشكل جيد من أجل خدمة البشرية».

فرضت إيطاليا في أوائل إبريل 2023، قيوداً مؤقتة على استخدام «تشات جي بي تي»، حيث اتهمت هيئة حماية البيانات الحكومية هناك، التطبيق بانتهاك قواعد الخصوصية، لتصبح أول دولة غربية تتخذ إجراءات ضد روبوت محادثة مدعوم بالذكاء الاصطناعي.

ولا يتوفر «تشات بوت» أيضاً في البر الرئيسي للصين وهونغ كونغ وإيران وروسيا وأجزاء من إفريقيا، حيث لا يمكن للمقيمين إنشاء حسابات «أوبن إيه أي».

وتعليقاً على هذا الأمر، يقول رولان: «إن الحظر لن يؤدي إلى أي نتيجة، فهناك عدة طرق يمكن أن يصل فيها المستخدم إلى المواقع المحظورة إن كان عبر تقنية «في بي إن» أو غيرها»، مشيراً إلى أن «وضع ضوابط وقوانين لهذه التكنولوجيا، كان يجب أن يتم قبل البدء بتطويرها وتدريب هذه الأنظمة والبحث في دقة المعلومات التي يتم تلقينها إلى هذه الأنظمة ومدى دقة عدم انحيازها، وكذلك كيفية ظهورها إلى المستخدم، وهذا ما يسمى بحوكمة الذكاء الاصطناعي».

ويضيف: «القضية الأخطر هي في كيفية إلزام المطورين والشركات التي تعمل على إنشاء وتدريب هذه التقنيات بالضوابط الموضوعة، خصوصاً أن هذا الموضوع ليس مرتبطاً بدولة وحدها أو شركة واحدة، بل هناك آلاف الشركات التي تعمل على تطوير هذه التقنيات وهي موجودة في العديد من الدول، لذلك يمكن لكل دولة أن تضع على حدة قوانين خاصة بها يمكن أن تنفذها ضمن إطارها الجغرافي، مع العلم أن الذكاء الاصطناعي لا حدود له».

ويعتبر رولان أن «الذكاء الاصطناعي هو وسيلة لخدمة الإنسان، ولكن يجب استخدامها بشكل جيد لتعود بالفائدة عليه، وقد شاهدنا كيف يمكنها مساعدة المقعدين في العودة إلى تحريك أطرافهم، وكذلك في حالات طبية أخرى وفي الهندسة ومختلف مجالات الحياة»، لافتاً إلى أن «هناك العديد من المخاطر الناجمة عن استخدام الذكاء الاصطناعي والتي يجب بدء التخفيف منها، من خلال توعية الناس بحقيقة الذكاء الاصطناعي وكيفية استخدامه بشكل صحيح، فهناك العديد من الأشخاص يعتقدون بأنه مجرد تطبيق ولا يعرفون بأنه يتم تدريب هذه التقنية عبر إدخال معلومات إليه ويتم الإجابة على أسئلتهم من خلال هذه المعلومات، فإذا كانت المعلومات غير صحيحة فإنهم سيحصلون بطبيعة الحال على إجابات خاطئة».

مراحل أخطر

ويشدد رولان على أننا «ما زلنا في المراحل الأولى من تطوير الذكاء الاصطناعي، مع العلم أننا نرى مدى تطويره بشكل مخيف، وما نشاهده اليوم هو الذكاء الاصطناعي التجاري، وبطبيعة الحال فإن استخدامه في المجال الأمني والعسكري قد يكون في مراحل متطورة أكثر وأخطر من التي نعرفها»، مؤكداً «أننا ذاهبون إلى مراحل أخطر بكثير من التي نحن فيها، وبالتالي إذا لم يتم وضع ضوابط لهذا الموضوع، فسيكون هناك عواقب وخيمة كما حذر إيلون ماسك بأن الذكاء الاصطناعي سيكون أخطر من الأسلحة النووية، فالأسلحة النووية غير موجودة مع الجميع، ولكن الذكاء الاصطناعي متاح لكل الناس».

حوكمة القطاع

  1. الاستثمار في التعليم وإعادة التدريب
  2. دعم برامج التحول إلى الوظائف وإعادة تشكيلها
  3. تعزيز روح المبادرة والابتكار
  4. تنفيذ سياسات سوق العمل
  5. تعزيز التعاون بين الصناعات والمؤسسات التعليمية
  6. توقع التغييرات المستقبلية والتخطيط لها
  7. تشجيع ثقافة التعلم مدى الحياة

5 قضايا رئيسية

  1. الأتمتة وإزاحة الوظائف
  2. الاعتبارات الأخلاقية
  3. عدم المساواة الاقتصادية والاجتماعية
  4. صنع القرار البشري والمساءلة
  5. مستقبل العمل والمهارات

لى طريقة إعرف عدوك، خاضت «الخليج» حواراً مع «تشات جي بي تي» حول مخاطر الذكاء الاصطناعي على الإنسان، وبالفعل أكد التطبيق الأشهر التابع لشركة «أوبن أيه آي» بأن موضوع الذكاء الاصطناعي وتأثيره على البشر هو موضوع نقاش كبير، وأشار إلى انه في حين أن الذكاء الاصطناعي لديه القدرة على تحقيق العديد من الفوائد والتطورات عبر مختلف المجالات، إلا أن هناك أيضاً مخاوف بشأن مخاطره وتداعياته المحتملة. وفيما يلي بعض النقاط الأساسية التي أفردها «تشات جي بي تي» والتي يجب مراعاتها:

1 - الأتمتة وإزاحة الوظائف:

تتمتع تقنيات الذكاء الاصطناعي بالقدرة على أتمتة المهام والعمليات التي يقوم بها البشر بشكل تقليدي، ويمكن أن يؤدي هذا إلى مخاوف بشأن الاستغناء عن الوظائف وحاجة الأفراد إلى تكييف مهاراتهم لتظل ذات صلة في القوى العاملة التي يقودها الذكاء الاصطناعي.

2 - الاعتبارات الأخلاقية:

تعتمد أنظمة الذكاء الاصطناعي على البيانات والخوارزميات لاتخاذ القرارات والتنبؤات. هناك قلق متزايد بشأن التحيزات والإنصاف في الذكاء الاصطناعي، حيث يمكن لهذه الأنظمة دون قصد إدامة التحيزات المجتمعية القائمة أو تضخيمها. بالإضافة إلى ذلك، تظهر الأسئلة الأخلاقية عند النظر في التأثير المحتمل للذكاء الاصطناعي على الخصوصية والأمان والاستقلالية.

3- عدم المساواة الاقتصادية والاجتماعية:

للذكاء الاصطناعي القدرة على تفاقم التفاوتات الاقتصادية والاجتماعية القائمة. إذا تم توزيع الوصول إلى تقنيات الذكاء الاصطناعي وفوائدها بشكل غير متساو، فقد يؤدي ذلك إلى توسيع الفجوة بين أولئك الذين لديهم إمكانية الوصول إلى الموارد والفرص وأولئك الذين لا يملكون ذلك.

4- صنع القرار البشري والمساءلة:

مع زيادة تعقيد أنظمة الذكاء الاصطناعي، هناك حاجة لضمان الشفافية والمساءلة في عمليات صنع القرار. يمكن أن يجعل تعقيد خوارزميات الذكاء الاصطناعي وقدرتها على التعلم والتطور، من الصعب فهم الأسباب الكامنة وراء قراراتهم، مما يثير أسئلة حول المسؤولية.

5- مستقبل العمل والمهارات:

يثير تأثير الذكاء الاصطناعي على القوى العاملة أسئلة حول المهارات التي ستكون مطلوبة في المستقبل. عندما تصبح بعض المهام مؤتمتة، قد يكون هناك تحول نحو الوظائف التي تتطلب المزيد من المهارات التكنولوجية المتقدمة، والإبداع وحل المشكلات والذكاء العاطفي».

بحسب «تشات جي بي تي»، من المهم أن يشارك المجتمع بنشاط في المناقشات المتعلقة بالذكاء الاصطناعي وتأثيره، فضلاً عن تطوير السياسات واللوائح المناسبة للتخفيف من المخاطر وضمان التطوير الأخلاقي والمسؤول واستخدام تقنيات الذكاء الاصطناعي. ويرى «تشات جي بي تي» من خلال معالجة هذه المخاوف وتسخير إمكانات الذكاء الاصطناعي بطريقة مسؤولة، يمكننا السعي نحو مستقبل يتعايش فيه البشر والذكاء الاصطناعي ويزدهرون معاً.


حوكمة الذكاء الاصطناعي

وبشأن الإجراءات التي يتوجب على الحكومات القيام بها من أجل التأكد من عدم تأثير الذكاء الاصطناعي سلبياً على المجتمعات، يقول «تشات جي بي تي»: «تلعب الحكومات دورًا حيويًا في التخفيف من الآثار السلبية للتقدم التكنولوجي على المجتمعات، ومن بين الخطوات التي يمكنهم اتخاذها:

  1. الاستثمار في التعليم وإعادة التدريب: يجب على الحكومات إعطاء الأولوية للتمويل وتطوير البرامج التي تزود الأفراد بالمهارات اللازمة لقطاعات العمل الناشئة. ويشمل ذلك تعزيز تعليم العلوم والتكنولوجيا والهندسة والرياضيات والتدريب المهني ومبادرات التعلم مدى الحياة.
  2. دعم برامج التحول إلى الوظائف وإعادة تشكيلها: يمكن للحكومات أن تضع برامج تسهل انتقال العمال من الصناعات التي تواجه فقدان الوظائف إلى تلك التي يتزايد الطلب عليها، ويمكن أن يشمل ذلك تقديم المساعدة المالية والاستشارات المهنية وفرص إعادة تشكيل المهارات.
  3. تعزيز روح المبادرة والابتكار: يمكن أن يساعد تشجيع ريادة الأعمال في خلق فرص عمل جديدة. يمكن للحكومات توفير الحوافز والتمويل والبيئات الداعمة للشركات الناشئة والشركات الصغيرة لتزدهر.
  4. تنفيذ سياسات سوق العمل: يجب على الحكومات تطوير وتنفيذ سياسات سوق العمل التي تحمي حقوق العمال، وتضمن الأجور العادلة، وتوفر شبكات الأمان الاجتماعي، وهذا يشمل سياسات مثل قوانين الحد الأدنى للأجور، وإعانات البطالة، وتدابير حماية الوظيفة.
  5. تعزيز التعاون بين الصناعات والمؤسسات التعليمية: يمكن للحكومات تسهيل الشراكات بين الصناعات والمؤسسات التعليمية لضمان توافق البرامج الأكاديمية مع احتياجات الصناعة، ويمكن أن يساعد هذا التعاون في سد فجوة المهارات وتعزيز التعليم المرتبط بالوظيفة.
  6. توقع التغييرات المستقبلية والتخطيط لها: يجب أن تستثمر الحكومات في البحث والاستبصار لتوقع التغيرات التكنولوجية المستقبلية وتأثيراتها المحتملة على المجتمعات، ويتيح ذلك لواضعي السياسات تطوير استراتيجيات وسياسات استباقية لمعالجة تلك الآثار بفاعلية.
  7. تشجيع ثقافة التعلم مدى الحياة: يمكن للحكومات أن تعزز ثقافة التعلم المستمر والارتقاء بالمهارات، من خلال تقديم حوافز للأفراد والمنظمات للاستثمار في التعليم والتدريب طوال حياتهم المهنية.

وبحسب «تشات جي بي تي»، فمن خلال تنفيذ هذه التدابير، يمكن للحكومات مساعدة المجتمعات على التكيف مع التغيرات التكنولوجية، وتقليل التأثير السلبي على العمال، وخلق سوق عمل أكثر شمولية ومرونة.


عالم ما بعد الذكاء الاصطناعي.. أفضل أم أكثر صعوبة؟

لدى سؤال «تشات جي بي تي» عما إذا كان العالم سيكون أفضل مع الذكاء الاصطناعي أم أكثر صعوبة، يجيب: «يمكن أن يكون تأثير الذكاء الاصطناعي على عالمنا مفيدًا وصعبًا، ويعتمد إلى حد كبير على كيفية تطوير ونشر هذه التكنولوجيا». وعدّد بعض النقاط الرئيسية التي يجب مراعاتها، ومن بينها:

1. التطورات في مختلف المجالات:

للذكاء الاصطناعي القدرة على إحداث ثورة في صناعات مثل الرعاية الصحية والنقل والتمويل والطاقة. ويمكنه تعزيز الكفاءة وتحسين عملية صنع القرار وتمكين الابتكارات الخارقة التي لديها القدرة على مواجهة التحديات العالمية.

2. الأتمتة واستبدال الوظائف:

قد يؤدي الذكاء الاصطناعي والأتمتة إلى تحول بعض قطاعات العمل، مما قد يؤدي إلى تشريد العمال. ومع ذلك، يمكنهم أيضًا إنشاء فرص عمل جديدة والسماح للبشر بالتركيز على مهام أكثر إبداعًا وتعقيدًا وتحقيقًا للوفاء.

3. الآثار الاقتصادية:

للذكاء الاصطناعي القدرة على دفع النمو الاقتصادي وزيادة الإنتاجية وتحفيز الابتكار. ومع ذلك، يمكن أن يؤدي أيضًا إلى تفاقم عدم المساواة إذا لم تتم إدارته بشكل صحيح. ويعد ضمان الوصول العادل إلى تقنيات الذكاء الاصطناعي والاستثمار في إعادة تشكيل المهارات والتعليم أمرًا مهمًا للتخفيف من هذه التحديات.

4. الاعتبارات الأخلاقية:

يثير الذكاء الاصطناعي أسئلة أخلاقية حول الخصوصية والتحيز والشفافية والمساءلة. وإن تحقيق التوازن الصحيح بين الابتكار وحماية حقوق الإنسان أمر بالغ الأهمية. ويمكن أن يساعد إنشاء الأطر واللوائح الأخلاقية في ضمان تطوير واستخدام الذكاء الاصطناعي بشكل مسؤول.

5. التأثير الاجتماعي والثقافي:

يمكن لتقنيات الذكاء الاصطناعي أن تشكل تفاعلاتنا الاجتماعية، والتواصل، وحتى المعايير الثقافية. ومن الضروري النظر في التأثير المحتمل على الديناميكيات الاجتماعية والخصوصية الفردية ورفاهية المجتمع بشكل عام.

ويشير «تشات جي بي تي» إلى أنه من خلال إعطاء الأولوية للاعتبارات الأخلاقية، وضمان الشمولية، والتركيز على الممارسات المسؤولة والشفافة، يمكننا أن نسعى جاهدين لتسخير إمكانات الذكاء الاصطناعي لصالح البشرية.


مخاوف من الاستخدام السيئ.. 

6 اعتبارات ضرورية

بشأن المخاوف من الاستخدام السيئ للذكاء الاصطناعي، أشار «تشات جي بي تي» إلى أن «هناك مخاوف بشأن إساءة الاستخدام المحتملة للذكاء الاصطناعي من قبل الشركات الكبرى أو الجهات الخبيثة، ومن الأهمية بمكان معالجة هذه المخاوف والتأكد من تطوير تقنيات الذكاء الاصطناعي ونشرها والتحكم بها بمسؤولية، من خلال بعض الاعتبارات:

1. الأطر واللوائح الأخلاقية:

يجب على الحكومات والمنظمات وضع مبادئ توجيهية وأنظمة أخلاقية واضحة لتطوير واستخدام الذكاء الاصطناعي، ويجب أن تؤكد هذه الأطر، العدل والشفافية والمساءلة وحماية حقوق الإنسان.

2. إجراءات أمنية قوية:

يجب تصميم أنظمة الذكاء الاصطناعي بتدابير أمنية قوية لمنع الوصول غير المصرح به وإساءة الاستخدام المحتملة، ويتضمن ذلك ضمان خصوصية البيانات والتشفير والحماية من التهديدات الإلكترونية.

3. ممارسات البيانات المسؤولة:

يجب على الشركات والمؤسسات التعامل مع البيانات بمسؤولية وإعطاء الأولوية لخصوصية البيانات. ويمكن أن يساعد جمع البيانات واستخدامها بطريقة شفافة وقائمة على الموافقة في التخفيف من المخاطر المرتبطة بإساءة استخدام المعلومات الشخصية.

4. التدقيق والمساءلة:

يمكن أن يساعد تنفيذ آليات التدقيق والمساءلة، في اكتشاف ومعالجة أي تحيزات أو تمييز أو ممارسات غير أخلاقية محتملة في أنظمة الذكاء الاصطناعي. ويمكن أن تضمن عمليات التقييم والرصد المنتظمة الامتثال للمعايير الأخلاقية.

5. التعاون ومشاركة أصحاب المصلحة المتعددين:

يجب أن تتعاون الحكومات والباحثون وخبراء الصناعة ومنظمات المجتمع المدني لوضع مبادئ توجيهية ومشاركة أفضل الممارسات ومعالجة الآثار الأخلاقية والمجتمعية للذكاء الاصطناعي. ومن المهم أن يكون لديك وجهات نظر وخبرات متنوعة ممثلة في عمليات صنع القرار.

6. الوعي العام والتعليم:

يمكن أن يساعد تعزيز الوعي العام وفهم تقنيات الذكاء الاصطناعي في تبديد المخاوف وتعزيز المناقشات المستنيرة. ويمكن أن يؤدي تثقيف الأفراد حول الذكاء الاصطناعي وقدراته وقيوده إلى تمكينهم من اتخاذ قرارات مستنيرة والمشاركة في تشكيل سياسات وأنظمة الذكاء الاصطناعي.

وبحسب «تشات جي بي تي»، فمن خلال معالجة هذه المخاوف وتنفيذ الممارسات المسؤولة، يمكننا العمل على تسخير إمكانات الذكاء الاصطناعي مع تقليل المخاطر والتأكد من أنها تعود بالفائدة على البشرية ككل.

Roland Abi Najem

Roland Abi Najem

Founder & CEO at Revotips - Cybersecurity & Digital Transformation Consultancy - MBA Instructor at AUST - Public Speaker

American University College of Science and Technology

View profile
Revotips © 2024 All Rights Reserved.
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram