3 قطاعات من الوظائف يدعمها عصر الذكاء
«التدمير الإبداعي» هو أحد المفاهيم الأساسية للاقتصاد الذي عرفه عالم الاقتصاد جوزيف شومبيتر عام 1942 بعملية الطفرة الصناعية التي تحدث ثورة مستمرة في البنية الاقتصادية من الداخل، من خلال تدمير البنية القديمة وخلق بنية أخرى جديدة، بطريقة مستمرة، وهذا يعني حتما أن الوظائف القديمة ستختفي، ولكن نظرا لأن التدمير الإبداعي مدعوم بالابتكار، فهذا يعني أيضا ظهور وظائف جديدة.
وليس سرا أن أكبر ابتكار في هذا العقد هو الذكاء الاصطناعي، ما يطرح تساؤلات حول ما هي الوظائف التي يمكن أن يخلقها الذكاء الاصطناعي؟ ووفقا للورقة البحثية الجديدة للمنتدى الاقتصادي العالمي بعنوان «وظائف الغد: نماذج اللغة الكبيرة والوظائف»، هناك 3 مجالات رئيسية يمكن أن يتم فيها خلق فرص العمل وهي «المدربون» و«المفسرون» و«الداعمون»، ويمكن توصيف مهامهم كالتالي:
1- المدربون، وهم في الأساس الأشخاص الذين يطورون الذكاء الاصطناعي، ومنهم المهندسون والعلماء الذين يعملون على نماذج اللغة الكبيرة (LLMs) التي تعتمد عليها أدوات الذكاء الاصطناعي التوليدية مثل شات جي بي تي، إلا أن الأدوار المحددة في هذا المجال لا تنتمي فقط إلى المبرمجين الذين يصممون خوارزميات أكثر كفاءة.
ويقول تقرير وظائف الغد إن المهندسين الكهربائيين يمكن أن تتاح لهم فرص أكبر بفضل زيادة الطلب على الرقائق الدقيقة المخصصة لتدريب وتشغيل نماذج اللغة الكبيرة، وتشمل وظائف «المدربين» الأخرى التي يمكن أن ينشئها الذكاء الاصطناعي مسؤولي الأنظمة الذين يقومون ببناء البنية التحتية للخوادم.
ويرى المنتدى إن ضمان حصول هذه الأنظمة على الطاقة التي تحتاجها سيكون أمرا بالغ الأهمية، لذلك يمكن أن تكون الوظائف في هندسة أنظمة الطاقة في ازدياد أيضا.
2- المفسرون، فيما يقوم المدربون بالعمل خلف الكواليس على الذكاء الاصطناعي، سيكون المفسرون في الواجهة للمساعدة في تسهيل استخدام الذكاء الاصطناعي، إذ سيقومون بتصميم الواجهات التي تمكن الناس من التفاعل مع الذكاء الاصطناعي، ويقول المنتدى إنه يمكن اعتبارهم «مصممي تجربة المستخدم» لنماذج اللغة الكبيرة، وقد يتذكر البعض أجهزة الكمبيوتر الشخصية الأولى وكيف كانوا يضطرون إلى كتابة سلسلة من الأوامر الفنية الدقيقة في MS – DOS لبدء تشغيل أجهزة الكمبيوتر الخاصة بهم.
وبالمثل، لايزال العديد من نماذج اللغة الكبيرة اليوم تقنيا للغاية، مما يعني أنها ستحتاج إلى واجهات مصممة لجعلها في متناول عامة الناس، كما يقول المنتدى، ويمكن إشراك المفسرين في جعل نماذج اللغة الكبيرة تعمل مع أنواع مختلفة من مدخلات المستخدم، وقد يعمل البعض مع الأوامر المكتوبة، بينما يستجيب البعض الآخر للصوت المنطوق، ويمكن أن يتضمن العمل التوضيحي إنشاء خطط إدارة التعلم المصممة خصيصا لمهام معينة، ويقول تقرير وظائف الغد إن هذا قد يؤدي إلى نمو وظائف مساعدي الذكاء الاصطناعي أو المعلمين أو المدربين المتخصصين.
3- الداعمون، إذ سيتأكد الداعمون بشكل أساسي من استخدام أنظمة الذكاء الاصطناعي بأفضل طريقة ممكنة، ومن المحتمل أن تكون هناك 3 أنواع رئيسية من الداعمين، وفقا لتقرير المنتدى، وهم منشئو المحتوى، وأمناء البيانات، ومسؤولو الأخلاقيات والحوكمة، ومنشئو محتوى «الهندسة السريعة» هي تخصص جديد يتضمن كتابة مطالبات نصية لجعل نماذج اللغة الكبيرة ينتج المحتوى الذي يريده المستخدم، وبنفس الطريقة التي نملي بها الكلمات التي نكتبها في غوغل فنتائج البحث التي نتلقاها، تحتاج نماذج اللغة الكبيرة إلى مطالبات خاصة لإنتاج النتائج المطلوبة.
ويقول المنتدى إن تحسين المطالبات سيسمح للجهات الداعمة للذكاء الاصطناعي بإنتاج محتوى متعمق بسرعة حول مواضيع مختلفة، وفي أي مجال، ويتمتع الذكاء الاصطناعي بالقدرة على إنتاج المقالات والكتب ومواد التدريس والتدريب، وحتى القصص الكاملة للأفلام والمسلسلات التلفزيونية وهي حقيقة أدت مؤخرا إلى إضراب كتاب السيناريو في هوليوود.
وتظهر الهندسة الفورية وظيفة «أمناء البيانات» خصوصا أن ما تضعه في الذكاء الاصطناعي هو مفتاح ما تحصل عليه منه بنفس القدر من الأهمية، فإن مدخلات نماذج اللغة الكبيرة هي مجموعات البيانات الكبيرة التي يتم تدريبهم عليها، وإذا لم تكن البيانات عالية الجودة، فلن تكون المخرجات عالية الجودة، إذ سيتم تكليف أمناء البيانات بالتأكد من أن نماذج اللغة الكبيرة لديها أفضل البيانات التي تدخل فيها.
ونظرا لأن معظم بيانات التدريب يتم تنسيقها من النص المنشور على الإنترنت، فإن التحقق من جودة البيانات ونزاهتها أمر بالغ الأهمية، وسيؤدي إلى تطوير القوى العاملة المتخصصة الخاصة بها، وهنا يبرز دور مسؤولو الأخلاقيات والحوكمة إذ يمكن أن تؤدي المشكلات المحيطة بجودة البيانات أيضا إلى مشاكل أخلاقية في استخدام الذكاء الاصطناعي، وقد يؤدي وجود لغة متحيزة في بيانات التدريب إلى قيام نماذج اللغة الكبيرة بإنتاج محتوى متحيز أو ضار أو غير أخلاقي، وسيكون مسؤولو الأخلاقيات والحوكمة مسؤولين عن التأكد من أن نماذج اللغة الكبيرة لا يتصرفون بهذه الطريقة.
وسيشمل ذلك اختبارا مكثفا للنظام قبل إصداره، ويمكن أن يؤدي إلى صعود مسؤولي السلامة والأخلاقيات في مجال الذكاء الاصطناعي، ومن الممكن أيضا وجود مجال جديد تماما من التنظيم والقانون حول أخلاقيات الذكاء الاصطناعي والحوكمة، مما يؤدي إلى وظائف جديدة في هذه المجالات.
يشير تقرير وظائف الغد إلى أنه لا يمكن أن تكون هناك تنبؤات مؤكدة بنسبة 100% فيما يتعلق بالأدوار الجديدة التي قد تظهر مع اعتماد نماذج اللغة الكبيرة على نطاق واسع، لكنه يؤكد على أن أعلى نسبة نمو محتمل في الوظائف ستكون في الذكاء الاصطناعي ومتخصصي التعلم الآلي في السنوات الـ 5 المقبلة، مع توسع محتمل بنسبة 39%.
ويبشر أيضا بفرص نمو في مجالات مثل معلمي الجامعات والتعليم العالي، مع نمو بنسبة 10% – وهي حقيقة تم تسليط الضوء عليها أيضا في تقرير مستقبل الوظائف لعام 2023 الصادر عن المنتدى الاقتصادي العالمي.
وتتطلب وظائف مثل التدريس درجة عالية من التفاعل الشخصي، كما هو الحال في المجالات الأخرى المتوقع أن تشهد نموا في السنوات المقبلة، مثل أخصائي الرعاية الصحية.