الجمعة, سبتمبر 20, 2024
Homeالربح من الانترنتهل الذكاء الاصطناعي يهدد البشرية؟

هل الذكاء الاصطناعي يهدد البشرية؟

لم يعد الحديث عن التأثير الهائل الذي أحدثه الذكاء الاصطناعي على حياتنا أمرًا جديدًا، فقد برز الذكاء الاصطناعي بسرعة كأحد أهم التقنيّات الثوريّة في عصرنا، وأعاد تشكيل مُختلف المجالات والقطاعات من حولنا. وتتنوَّع تطبيقات الذكاء الاصطناعي بشكلٍ كبير، بدءًا من صناعة المحتوى الرقمي والتسويق الإلكتروني، إلى المركبات ذاتيَّة القيادة وتشخيصات الرعاية الصحيَّة المُتقدمة.

ومع ذلك، مع الفائدة الكبيرة تأتي مسؤولية كبيرة! وقد أثار ظهور الذكاء الاصطناعي جدلاً حادًا حول تأثيره المحتمل على البشرية. فمن ناحية، يُسلِّط المؤيدون الضوء على قدرة الذكاء الاصطناعي على أداء المهام المُعقَّدة بدقة، وتعزيز عملية صنع القرار، وفتح آفاق جديدة للابتكار، وتحقيق تقدُّم بشري غير مسبوق. 

وعلى الجانب الآخر، يُحذِّر المنتقدون من التطوُّر السريع وغير المُنظَّم للذكاء الاصطناعي، مشيرين إلى بعض التهديدات الخطيرة مثل إزاحة الوظائف، وانتهاك الخصوصيَّة، بل وحتى التأثير على الاستقرار العالمي.

في هذا المقال، نتعمَّق بحياديّة في هذا الجدل مُتعدِّد الأوجه حول تهديد الذكاء الاصطناعي للبشريّة، ونستعرض الحجج المقدمة من كلٍ من المؤيدين والمعارضين. ومن خلال استكشاف فوائد ومخاطر الذكاء الاصطناعي، نهدف إلى تقديم منظور متوازن حول ما إذا كان الذكاء الاصطناعي يمثل طريقًا إلى مستقبل أكثر إشراقًا أم أكثر خطورة!

اقرأ أيضًا: أهم تطبيقات الذكاء الاصطناعي التي أحدثت تحولا في مجالات متعددة

من خلال مقالاتنا المُميَّزة ستتعلم الذكاء الاصطناعي، استخدامات الذكاء الاصطناعي، تطبيقات ومواقع الذكاء الاصطناعي وغير ذلك الكثير.  تعلم الذكاء الاصطناعي

تهديدات الذكاء الاصطناعي

لا يستطيع أحد الإنكار أنّ الذكاء الاصطناعي يجمل الكثير من الفوائد، ولكنَّه يُمثّل أيضًا بعض المخاطر والتهديدات، والتي من أبرزها:

  1. فقدان الوظائف.

  2. التزييف العميق.

  3. انتهاكات الخصوصيّة والأمان.

  4. التحيُّز وعدم المساواة.

  5. تقلُّبات السوق والاقتصاد.

  6. الأسلحة ذاتيّة التشغيل.

1. فقدان الوظائف

استبدال الذكاء الاصطناعي بالبشر في الوظائف

يرى الكثيرون أنّ الذكاء الاصطناعي أصبح يُشكِّل تهديدًا كبيرًا على الموظّفين في مُختلف القطاعات. على سبيل المثال، يُمكن للآلات التي تعتمد على الذكاء الاصطناعي أداء مهام متكررة بكفاءة ودقة أعلى من البشر، مما بدوره سيؤدي إلى إزاحة البشر من وظائفهم في العديد من الصناعات مثل صناعة السيارات والإلكترونيَّات.

وبعيدًا عن الصناعة، استطاع المساعدون الآليُّون وروبوتات الدردشة تحقيق طفرة في مجال خدمة العملاء مما أدى إلى تقليل الحاجة إلى العاملين البشريين في أدوار مثل وكلاء مراكز الاتصال وموظفي خدمة العملاء.

بالإضافة إلى ذلك، يًمكن لأنظمة الذكاء الاصطناعي معالجة مجموعات البيانات الكبيرة وتحليلها بشكلٍ أسرع بكثير من البشر، مما يهدد الوظائف في مجالات مثل إدخال البيانات والمحاسبة وأبحاث السوق. كما أنّ قدرة أدوات الذكاء الاصطناعي على إنشاء استراتيجيَّات ومحتوى تسويقي، سيؤدي بدوره أيضًا إلى مزيد من الانخفاض في الطلب على محترفي التسويق. 

وهناك العشرات من المجالات الأخرى التي من المُحتمل أن يحل فيها الذكاء الاصطناعي محل البشر. لمعرفة المزيد من هذه المجالات، يُمكنك الاطّلاع على مقال مستقبل الوظائف في عصر الذكاء الاصطناعي

اقرأ أيضًا: ما هي إيجابيات وسلبيات الذكاء الاصطناعي؟

2. التزييف العميق

من أكبر تهديدات الذكاء الإصطناعي هي تقنيّة التزييف العميق (Deepfake) هي عبارة عن إنتاج وسائط أو فيديوهات بواسطة الذكاء الاصطناعي، بحيث يتم استبدال شخص ما في صورة أو مقطع فيديو بشخصٍ آخر، فيبدو كما لو أنّه هو من في الصورة أو الفيديو. وكُلما تطوّرت هذه التكنولوجيا أكثر، كلما ازدادت مخاطرها على البشر، فلا داعي للتأكيد على أنّ هذا الأمر يُشكّل تهديدًا كبيرًا للبشر! فقط تخيّل ما الذي يُمكن أن يُحدثه في حياة الأفراد والمُجتمعات على حدٍ سواء. 

يُمكن استخدام التزييف العميق لإنشاء محتوى يبدو واقعيًا ولكنَّه كاذب ومُضلِّل، وهو الأمر الذي يُمكن استخدامه في جرائم الابتزاز والتشهير بالسمعة وغيرها. 

وأما على الصعيد المُجتمعي، يُمكن أن تؤدي تقنية التزييف العميق إلى تضخيم انتشار الأخبار المزيفة، مما يجعل من الصعب على الأشخاص تمييز ما هو حقيقي وما هو مُلفَّق، وهو الأمر الذي بدوره سيقلل الثقة في مقاطع الفيديو والتسجيلات الصوتية والصور كمصادر موثوقة للمعلومات.

اقرأ أيضًا: أهم أخلاقيات الذكاء اللاصطناعي

3. انتهاكات الخصوصية والأمان

انتهاكات الذكاء الاصطناعي للخصوصية والأمان

غالبًا ما تتطلَّب أنظمة الذكاء الاصطناعي الوصول إلى مجموعات كبيرة من البيانات، بما في ذلك المعلومات الشخصيَّة. وإذا لم يتم تأمين هذه الأنظمة بشكلٍ كاف لمنعها من الوقوع في الأيدي الخطأ، فإنَّها يُمكن أن تصبح أهدافًا سهلة للهجمات الإلكترونيَّة وهو الأمر الذي سيؤدي إلى تسريب بيانات المستخدمين لاتخدامها لأغراض غير مشروعة.

يُمكن كذلك لجهات القرصنة الإلكترونيّة استخدام الذكاء الاصطناعي لأتمتة تقنيَّات القرصنة وتعزيزها اعتمادًا على البيانات المتاحة لديه، مما يُسهِّل اختراق الأنظمة وسرقة البيانات. بالإضافة إلى ذلك، يُمكن لأنظمة الذكاء الاصطناعي تجميع البيانات من مصادر متعددة، وإنشاء ملفات تعريف شاملة يمكن استخدامها بطرق لم يقصدها الأفراد أو يتوقعوها أبدًا، وهو الأمر الذي يؤدي بالطبع إلى انتهاك للخصوصيَّة.

اقرأ أيضًا: كيف نستخدم الذكاء الاصطناعي في حياتنا اليومية؟

4. التحيُّز وعدم المساواة

روبوت يحمل ميزانًا

يتم تدريب أنظمة الذكاء الاصطناعي باستخدام كميّة هائلة من البيانات القديمة والتي قد تحتوي على تحيُّزات موجودة بالفعل. إذا لم يتم تحديد هذه التحيزات وضبط خوارزميّات الذكاء الاصطناعي للتعامل معها، فستعمل على اتّخاذ قرارات مُتحيزة. 

على سبيل المثال، إذا تم تدريب خوارزميَّة التوظيف على بيانات التوظيف السابقة التي فضلت فئات مُعيَّنة، فقد تستمر في تفضيل تلك الفئات. وبذلك، يُمكن لأنظمة الذكاء الاصطناعي المستخدمة في التوظيف التمييز على أساس الجنس أو العرق أو العمر أو غيرها من السمات وفقًا لبيانات التدريب السابقة. وهذا يُمكن أن يؤدي إلى رفض المرشحين المؤهلين بشكلٍ غير عادل.

بالإضافة إلى ذلك، يُمكن أن يؤدي التمثيل الناقص أو التمثيل الزائد لمجموعات معينة في بيانات التدريب إلى نتائج متحيزة للذكاء الاصطناعي. على سبيل المثال، تميل أنظمة التعرُّف على الوجه، التي يتم تدريبها في الغالب على الوجوه ذات البشرة الفاتحة، إلى الحصول على معدلات خطأ أعلى عند تحديد الأفراد ذوي البشرة الداكنة!

والذي يزيد الأمر سوءًا هو أنّ العديد من أنظمة الذكاء الاصطناعي تعمل مثل “الصناديق السوداء”، مما يجعل من الصعب فهم كيفيَّة اتخاذ القرارات أو الآليّة التي تم اعتمادها لاختيار شخصٍ ما دون غيره.

اقرأ أيضًا: كيف سيحمي الذكاء الاصطناعي مستقبل البيئة؟

5. تقلُّبات السوق والاقتصاد

روبوت يتابع شاشة السوق والمؤشرات الاقتصادية

لقد أحدث الذكاء الاصطناعي ثورةً في القطاع المالي، حيث قدَّم إمكانات فائقة لتحليل البيانات والتداول وإدارة المخاطر. ومع ذلك، فإنَّ دمج الذكاء الاصطناعي في الأسواق المالية يشكل أيضًا تهديدات كبيرة يمكن أن تؤدي إلى بعض الأزمات المالية المحتملة. 

على سبيل المثال، طبقًا لدراسةٍ تم نشرها عام 2018 في جامعة متروبوليا للعلوم التطبيقية، تقوم خوارزميَّات التداول عالية التردد المعتمدة على الذكاء الاصطناعي بتنفيذ كميات كبيرة من الصفقات بسرعات عالية للغاية. وفي حين أنَّ هذا يُمكن أن يحسن سيولة السوق، فإنَّه يُمكن أن يؤدي أيضًا إلى تقلبات مفرطة خاصةً خلال فترات عدم اليقين أو الذعر مثل الحروب. 

أضف إلى ذلك أنّ الحالات التي تتفاعل فيها خوارزميات الذكاء الاصطناعي مع ظروف السوق بطرق غير متوقعة يُمكن أن تتسبب في بعض الانهيارات الخاطفة مثل الانخفاضات الحادة والمفاجئة في أسعار السوق والتي يتبعها ارتفاع سريع. ولعلّ المثال الأكثر شهرةً للانهيار المفاجئ هو ما حدث في السادس من مايو 2010، عندما انخفض مؤشر داو جونز الصناعي بما يقرب من 1000 نقطة في غضون دقائق، لكنه تعافى بعد ذلك بوقت قصير. وكشفت التحقيقات أن خوارزميات التداول الآلي ساهمت بشكل كبير في هذا الانخفاض السريع.

ونظرًا لأنّ خوارزميات الذكاء الاصطناعي غالبًا ما تعتمد على نفس البيانات والاستراتيجيَّات، فإنّ هذا قد يؤدي إلى سلوك القطيع حيث تقوم أنظمة متعددة بإجراء صفقات مُماثلة في وقت واحد. يُمكن أن يؤدي هذا التزامن في الصفقات إلى تضخيم تحركات السوق وزيادة مخاطر الفقاعات والانهيارات.

اقرأ أيضًا: هل ينبغي استخدام أدوات الذكاء الاصطناعي في الدراسة؟

6. الأسلحة ذاتيّة التشغيل

سلاح يعمل بالذكاء الاصطناعي

لا شكّ أنّ تطوير أنظمة الأسلحة المستقلة المدعومة بالذكاء الاصطناعي يُمثل تهديدات كبيرة للأمن والاستقرار البشري، حيث تثير هذه الأسلحة – التي يُمكنها اختيار الأهداف والاشتباك معها دون تدخل بشري – مخاوف عديدة لأسباب مُختلفة.

على سبيل المثال، تعمل الأسلحة ذاتية التشغيل بناءً على خوارزميّات مُعيّنة، وبالتالي فإنّ تفويض القرارات المتعلقة بالحياة والموت للآلات يثير أسئلة أخلاقيَّة عميقة. يفتقر الذكاء الاصطناعي إلى الحكم البشري والتعاطف والتفاهم، وهي أمور حاسمة في اتخاذ مثل هذه القرارات. وقد يؤدي هذا إلى قرارات قد يجدها البشر غير مقبولة أخلاقيًا.

ضع في الاعتبار أيضًا أن احتمال الخطأ وارد. فأنظمة الذكاء الاصطناعي – على الرغم من تعقيدها – ليست بعيدة كليًا عن الخطأ. وبالتالي، يُمكن أن تخطئ هذه الأسلحة في تحديد الأهداف أو أن تسيء تفسير المواقف بأن تقتل مدنيًا بريئًا.

اقرأ أيضًا: هل من الخطأ أن يستخدم الناس فن الذكاء الاصطناعي؟

الآراء المُعارضة لسيناريو تهديد الذكاء الاصطناعي

كما ذكرنا، يرى الكثيرون أنّ الذكاء الاصطناعي يُشكِّل تهديدًا للبشرية فيما يتعلّق بإزاحة الوظائف، وانتهاكات الخصوصية، والتحيُّز، وتقلبات السوق، والأسلحة ذاتية العمل وغير ذلك من المخاطر المحتملة. ومع ذلك، هناك فريق آخر يرى أنّه يُمكن معالجة هذه المخاوف والتحكُّم فيها. وفيما يلي الآراء والحجج المضادة التي تُوضِّح كيف يُمكن التحكُّم في التهديدات السابق ذكرها:

1. فقدان الوظائف

في حين أنَّ الذكاء الاصطناعي لديه القدرة على أتمتة مهام معينة، فإنَّه يخلق أيضًا فرص عمل وصناعات جديدة. تاريخيًا، أدى التقدم التكنولوجي إلى الكثير من التحوُّلات في سوق العمل وخلق وظائف جديدة بدلًا من الإلغاء التام للوظائف. على سبيل المثال، أدى ظهور الإنترنت إلى خلق العديد من الوظائف في مجالات تكنولوجيا المعلومات والتجارة الإلكترونية والتسويق الرقمي. 

وبالتالي، من خلال برامج إعادة تشكيل المهارات يُمكن إعداد القوى العاملة لوظائف جديدة أنشأها الذكاء الاصطناعي. 

اقرأ أيضًا: ما مدى دقة وموثوقية أجهزة الذكاء الاصطناعي؟

2. التزييف العميق

يعمل الباحثون في مجال الذكاء الاصطناعي باستمرار على تطوير خوارزميات أكثر تطورًا للكشف عن التزييف العميق. ومن خلال الاستفادة من نفس تقنيات الذكاء الاصطناعي المستخدمة لإنشاء التزييف العميق، يمكن لأنظمة الكشف تحليل التناقضات في البيانات المرئية والصوتية التي لا يمكن للعين البشرية رؤيتها.

إنَّ المنافسة التي تحدث بين تطوير تقنيّة التزييف العميق وبين تطوير تقنيّات الكشف عنها هي تطوُّر تكنولوجي طبيعي. ومع تطوُّر تقنيّات الكشف، ستقل فعالية التزييف العميق، مما يجعل من الصعب على أي جهة استخدامها دون أن يتم اكتشافها. وبالفعل، تم تطوير العديد من الأدوات للكشف عن التزييف العميق. وتُجسِّد مبادرات مثل Deepfake Detection Challenge التي أطلقتها شركة ميتا مثل هذه الجهود.

بالإضافة إلى ذلك، يُمكن لصانعي المحتوى تسجيل أعمالهم على blockchain، مما يضمن إمكانية اكتشاف أي تعديلات لاحقة.

اقرأ أيضًا: هل سيسيطر الذكاء الاصطناعي علينا وعلى العالم؟

3. انتهاكات الخصوصية

يمكن التخفيف من مخاوف الخصوصيَّة المتعلقة بالذكاء الاصطناعي من خلال قوانين حماية البيانات القوية. على سبيل المثال، تُوفِّر اللوائح التنظيميَّة مثل اللائحة العامة لحماية البيانات (GDPR) في أوروبا إطارًا للتعامل مع البيانات الشخصية بطريقة مسؤولة.

بالإضافة إلى ذلك، يُمكن أن تساعد تقنيات مثل الخصوصيَّة التفاضليَّة والتعلم الموحد والتشفير في تأمين البيانات الشخصيَّة وفي نفس الوقت السماح لأنظمة الذكاء الاصطناعي بالعمل بفعالية.

4. التحيُّز وعدم المساواة

يُعد التحيُّز في القرارات المُتّخذة بواسطة أنظمة الذكاء الاصطناعي مُشكلة لا يُمكن أنكارها، ولكن في نفس الوقت لا يجب غض الطرف عن السبب الرئيسي وهو تدريب هذه الأنظمة على بيانات تدريبيّة مُتحيزة بالفعل. وبذلك، يُمكن معالجة هذه المشكلة من خلال تدريب أنظمة الذكاء الاصطناعي ببيانات غير مُتحيزة، ثم تعريض هذه الأنظمة لفترة من الاختبار والمراقبة قبل السماح لها باتّخاذ أي قرارات. 

وبالتالي، يُمكن لمجموعات البيانات المتنوعة، وتطوير الخوارزميات الشاملة، وعمليات التدقيق المنتظمة أن تساعد في تقليل التحيز وضمان نتائج عادلة. في الواقع، تعمل منظمات مثل IEEE بالفعل على تطوير أطر عمل لمنع أي تحيُّز في قرارات الذكاء الاصطناعي.

اقرأ أيضًا: أفضل مواقع التصميم بالذكاء الاصطناعي

5. تقلُّبات السوق والاقتصاد

عند استخدامه بشكلٍ مسؤول، يُمكن للذكاء الاصطناعي أن يُساهم بشكلٍ كبير في منع الأزمات الماليَّة، حيث يُمكن أن يعزز استقرار السوق من خلال تحسين إدارة المخاطر، والكشف عن الاحتيال، والمساعدة في عمليَّات صنع القرار. 

ومن خلال تطوير أنظمة الذكاء الاصطناعي القابلة للتفسير والتي تُوفّر تفسيرات واضحة ومفهومة لقراراتها، يُمكن بسهولة لصُنّاع القرار التحكُّم بشكلٍ أكبر في أي تبعات تحدث في السوق جرّاء قرارات الذكاء الاصطناعي. علاوةً على ذلك، يقترح بعض الاقتصاديين تنفيذ ما يُعرف ببروتوكولات الطوارئ، والمُتمثلة في إيقاف التداول الآلي في حالة التقلبات الشديدة، مما يوفر الوقت لمعالجة المشكلات الأساسية.

6. الأسلحة ذاتيّة التشغيل

مثلها مثل باقي الأسلحة الفتّاكة كالقنابل النوويَّة وغيرها، يُمكن تنظيم تطوير ونشر الأسلحة التي تعمل بالذكاء الاصطناعي من خلال المعاهدات والاتفاقيات الدوليَّة. ومن خلال وضع قوانين دوليّة تتعلّق بهذا النوع من الأسلحة، يُمكن التحكم في مخاطره بشكلٍ أكبر.

اقرأ أيضًا: أفضل مواقع الرسم بالذكاء الاصطناعي

 ابدأ بتعلّم الذكاء الاصطناعي الآن مع هذه الدورات الأونلاين المميزة! دورات الذكاء الاصطناعي

ختامًا، قد يكون الجدل الدائر حول ما إذا كان الذكاء الاصطناعي يُهدِّد البشريَّة أم لا مُعقَّدًا بعض الشيء، ويعكس نطاقًا واسعًا من وجهات نظر كل من المؤيدين والمعارضين. فمن ناحية، يحمل الذكاء الاصطناعي إمكانات هائلة لإحداث ثورة في الصناعات، وتعزيز الإنتاجية، ومواجهة التحديات العالمية الحرجة في مجالات مثل الرعاية الصحيَّة والاستدامة البيئية، وغيرها. ومن ناحيةٍ أخرى، فإنَّ هذه الإمكانية تأتي مع مخاطر كبيرة تؤكِّد الحاجة إلى التعامل بحذر ومسؤوليّة مع هذه التكنولوجيا الثوريّة.

وأنت ماذا ترى؟ هل تعتقد أنّ هذه التهديدات المُحتملة يُمكن أن تتحوَّل يومًا إلى خطر حقيقي؟ أم أنّه من السهل السيطرة عليها بحيث يتم الاستفادة من فوائد الذكاء الاصطناعي دون التعرُّض لأضراره؟ شاركنا برأيك في التعليقات.

ولا تنسَ الاشتراك في موقعنا ليصلك المزيد من مقالاتنا عن الذكاء الاصطناعي، والتي ستمدك بأحدث التطورات في هذا المجال حتى تكون على اطِّلاع دائم بكل ما هو جديد.

اقرأ أيضًا: أهم تطبيقات الذكاء الاصطناعي في التعليم

اقرأ أيضًا: كيف يمكن استخدام الذكاء الاصطناعي في مجال الطب؟

اقرأ أيضًا: ماذا يقصد بـ التعلم العميق (Deep Learning)؟

المصادر: builtin، techtarget، linkedin، europarl، cio

مقالات ذات صلة
- Advertisment -

الأكثر شعبية

احدث التعليقات

error: Content is protected !!