تقرير: أنظمة الذكاء الاصطناعى لا يمكنها التدريب على محتواها الخاص وتحتاج مساعدة البشر
لقد أحرزت أنظمة الذكاء الاصطناعي مثل ChatGPT تقدمًا كبيرًا في السنوات الأخيرة، لكنها لا تزال تعاني من قيود تتطلب تدخلًا بشريًا للتغلب عليها. أحد القيود الرئيسية هو أنه لا يمكن تدريب أنظمة الذكاء الاصطناعي على محتواها الخاص لتحسين ذكائها. بدلاً من ذلك، تحتاج إلى مساعدة بشرية لتصبح أكثر ذكاءً ودقة.
وفقًا للدراسة التي أجرتها مجلة Nature، تعتمد أنظمة الذكاء الاصطناعي، بما في ذلك ChatGPT، على مجموعات بيانات كبيرة للتعلم وتوليد الاستجابات، ويتم تنظيم هذه المجموعات من البيانات ووضع علامات عليها بواسطة البشر، مما يساعد الذكاء الاصطناعي على فهم السياق وأنماط اللغة والفروق الدقيقة المختلفة.
تتضمن عملية تدريب الذكاء الاصطناعي إطعامه كميات هائلة من البيانات ثم تعديلها بناءً على أدائه، وبدون التدخل البشري، يمكن أن تتدهور جودة بيانات التدريب بمرور الوقت، مما يؤدي إلى مخرجات أقل دقة وموثوقية.
إن المشاركة الإنسانية أمر بالغ الأهمية لعدة أسباب:
– تحتاج أنظمة الذكاء الاصطناعي إلى بيانات عالية الجودة ومتنوعة ومُصنفة جيدًا حتى تتمكن من التعلم بشكل فعال. ويلعب البشر دورًا أساسيًا في تنظيم هذه البيانات وشرحها للتأكد من أنها مناسبة للتدريب.
في حين أن الذكاء الاصطناعي قادر على معالجة النصوص وتوليدها، فإنه غالبًا ما يواجه صعوبة في فهم السياق والفروق الدقيقة للغة. يمكن للبشر توفير السياق اللازم وتصحيح أي سوء فهم قد يكون لدى الذكاء الاصطناعي.
– قد تتعلم أنظمة الذكاء الاصطناعي عن غير قصد وتكرر التحيزات الموجودة في بيانات التدريب الخاصة بها. ويلعب البشر دورًا حاسمًا في تحديد هذه التحيزات والتخفيف منها لضمان عدالة الذكاء الاصطناعي وأخلاقيته.
– يجب تحديث الذكاء الاصطناعي وتحسينه باستمرار ليظل ذا صلة ودقيقًا. هناك حاجة إلى البشر لتوفير بيانات جديدة ومراجعة مخرجات الذكاء الاصطناعي وإجراء التعديلات حسب الحاجة.
قد تبدو فكرة تدريب أنظمة الذكاء الاصطناعي بمفردها جذابة، لكنها تأتي مع تحديات كبيرة – إذا تم تدريب نظام الذكاء الاصطناعي على مخرجاته الخاصة، فقد تتدهور جودة البيانات بمرور الوقت، وقد يبدأ الذكاء الاصطناعي في توليد محتوى متكرر أو غير منطقي، لأنه يفتقر إلى التحقق الخارجي والتنوع الذي توفره البيانات التي يوفرها الإنسان.
يمكن تضخيم أي أخطاء موجودة في التدريب الأولي للذكاء الاصطناعي إذا استمر في التدريب على مخرجاته الخاصة. الإشراف البشري ضروري للقبض على هذه الأخطاء وتصحيحها. من الصعب تكرار الإبداع والحدس البشري في الذكاء الاصطناعي، والتدريب على مخرجاته الخاصة وحدها يمكن أن يحد من قدرة الذكاء الاصطناعي على الابتكار والتكيف مع المواقف الجديدة أو غير المتوقعة.
دور الإنسان في تطوير الذكاء الاصطناعي
يلعب البشر دورًا كبيرًا في تطوير وصيانة أنظمة الذكاء الاصطناعي مثل ChatGPT:
– يقوم البشر بتسمية البيانات وتصنيفها، مما يوفر السياق والمعلومات اللازمة للذكاء الاصطناعي للتعلم منها.
في التعلم الخاضع للإشراف، يقوم البشر بتوجيه الذكاء الاصطناعي من خلال تقديم الأمثلة والملاحظات، مما يساعده على فهم وتحسين استجاباته.
– يحدد البشر التحيزات في مخرجات الذكاء الاصطناعي ويتخذون الخطوات اللازمة لتصحيحها، مما يضمن بقاء الذكاء الاصطناعي عادلاً وغير متحيز.
– يضمن البشر أن أنظمة الذكاء الاصطناعي تلتزم بالمبادئ الأخلاقية ولا تسبب ضررًا أو تنشر معلومات مضللة.
ورغم أن أنظمة الذكاء الاصطناعي مثل ChatGPT قطعت شوطًا طويلاً، فإنها لا تزال تتطلب مشاركة بشرية كبيرة للوصول إلى إمكاناتها الكاملة. فالمساهمة البشرية ضرورية لتوفير بيانات عالية الجودة، وضمان المعايير الأخلاقية، وتحسين قدرات الذكاء الاصطناعي باستمرار. ومع استمرار تطور تكنولوجيا الذكاء الاصطناعي، سيكون التعاون بين البشر والذكاء الاصطناعي أمرًا بالغ الأهمية في إنشاء أنظمة ذكاء اصطناعي أكثر ذكاءً وموثوقية وأخلاقية.
لمطالعة المزيد: موقع السفير وللتواصل تابعنا علي فيسبوك الدبلوماسي اليوم و يوتيوب الدبلوماسي اليوم.