ما التأثيرات السلبية المرتبطة بتطور الذكاء الاصطناعي؟

شهد العالم في السنوات الأخيرة تطورًا مذهلًا في مجال التكنولوجيا، وكان الذكاء الاصطناعي من أبرز التطورات وأكثرها انتشارًا. فقد أصبحت هذه التقنية محركًا أساسيًا للابتكار في معظم القطاعات، من الطب إلى الصناعة والتعليم وحتى الترفيه.

ومع ذلك، فإن هذا التطور الكبير في هذه التقنية لا يخلو من التحديات والمخاطر، ومع أن هناك العديد من الفوائد التي توفرها، فإن هناك تأثيرات سلبية لا يمكن تجاهلها. وترتبط هذه التأثيرات بقضايا الخصوصية، والاحتيال، بالإضافة إلى الأضرار الاقتصادية والأمنية.

وفي هذا المقال، سنذكر أبرز السلبيات المرتبطة بتطور الذكاء الاصطناعي وتأثيرها في المجتمع:
1- الطلب المتزايد على الطاقة:

إن الطلب المتزايد على الطاقة من شركات تطوير نماذج الذكاء الاصطناعي يزيد من الانبعاثات الناتجة من تلك الشركات الكبرى مثل: جوجل ومايكروسوفت. وبحلول عام 2030، قد تستهلك مراكز البيانات ما يصل إلى 9% من الكهرباء في الولايات المتحدة، وفقًا لمعهد أبحاث الطاقة الكهربائية.
2- انتشار المعلومات المضللة:

أصبح المحتوى المولد بالذكاء الاصطناعي يُستخدم بكثرة لنشر معلومات مضللة. فقد صمم شخص ما مقطع فيديو مزيف باستخدام تقنية التزييف العميق , ونشرت العديد من مقاطع الفيديو المزيفة الأخرى المرتبطة بأحداث سياسية مهمة.

يؤثر انتشار المحتوى المزيف في ثقة الناس بالمحتوى الذي يشاهدونه عبر الإنترنت، وعندما لا يستطيع الناس التمييز بين المحتوى الحقيقي والمحتوى غير الحقيقي، فإن ذلك سيؤثر سلبًا في المجتمع، فقد تنتشر جرائم انتحال الهوية، والتلاعب بالرأي العام، والجرائم المالية، وفقدان الثقة بأي محتوى مرئي.

لذلك يجب توضيح التقنية المستخدمة في تصميم أي فيديو ينتشر عبر الإنترنت، وتعليم الناس كيفية تمييز المحتوى المصمم بالذكاء الاصطناعي للتخفيف من التأثيرات السلبية لمقاطع الفيديو المزيفة.
3- اختفاء بعض الوظائف:

من المُتوقع أن يتسبب الذكاء الاصطناعي باختفاء مجموعة من الوظائف، وغالبًا سيلغي الوظائف السهلة التي لا تتطلب أي إبداع مثل: إدخال البيانات وبعض وظائف المحاسبة، ولكن الوظائف القائمة على الموارد البشرية مثل: خدمة العملاء والمبيعات والتسويق والابتكار والبحث ستظل موجودة ومطلوبة وسيكون للذكاء الاصطناعي دور كبير في تطويرها.
4- زيادة التهديدات البيولوجية:

هناك مخاوف من أن الذكاء الاصطناعي يمكن أن تستخدمه بعض الجهات لتطوير أسلحة بيولوجية، فمع تطور النماذج اللغوية الكبيرة مثل سلسلة (o1) من شركة (OpenAI)، التي تعتمد على تقنية التعلم التعزيزي، أصبح بإمكان هذه النماذج المساعدة في تطوير أسلحة بيولوجية. وقد أظهرت دراسة من معهد ماساتشوستس للتكنولوجيا أن نماذج الذكاء الاصطناعي يمكنها مساعدة غير المتخصصين في تطوير فيروسات قاتلة؛ مما يثير مخاوف من إساءة استخدام هذه التكنولوجيا.

وللتصدي لهذه التهديدات، يجب تعزيز الرقابة على سلسلة توريد المواد الجينية، وتطوير أنظمة ذكاء اصطناعي آمنة. كما ينبغي وضع معايير جديدة لتقييم المخاطر المرتبطة بالنماذج اللغوية الكبيرة، وتطوير أدوات للكشف عن الاستخدامات الضارة لهذه النماذج.

——-

المركز السوري للبرمجة – شركة خاصة
مركز معتمد من الهيئة الوطنية لخدمات الشبكة
تصميم وبرمجة واستضافة مواقع انترنت – برمجة تطبيقات موبايل – تنفيذ مشاريع الأتمتة والأرشفة
دمشق شرقي ركن الدين