نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
لماذا يقدم الذكاء الاصطناعي معلومات خاطئة عن قدراته أو أخطائه؟ - مصدرنا الإخبارى, اليوم الخميس 21 أغسطس 2025 07:58 مساءً
فعندما يحدث خطأ ما مع مساعد الذكاء الاصطناعي، نميل إلى سؤاله مباشرةً: "ماذا حدث؟" أو "لماذا فعلت ذلك؟".
إنه دافع طبيعي، ففي النهاية، إذا ارتكب الإنسان خطأً، نطلب منه الشرح، لكن مع نماذج الذكاء الاصطناعي، نادراً ما ينجح هذا النهج؛ لأنه يكشف طبيعة هذه الأنظمة وكيفية عملها.
فلماذا يقدّم نظام الذكاء الاصطناعي معلومات خاطئة عن قدراته أو أخطائه؟
لا تتحدث مع شخص
المشكلة الأولى هي أنك لا تتحدث إلى شخصية أو شخص أو كيان ثابت عندما تتفاعل مع ChatGPT أو Claude أو Grok أو غيرها، بل في الواقع هذه برامج تولد نصًّا لإنتاج إجابات بناءً على مطالباتك، فلا يوجد ChatGPT ثابتا للاستفسار عن أخطائه، ولا كيان Grok ليخبرك عن سبب فشله.
وعليه، أنت تتفاعل مع نظام يولّد نصًّا يبدو معقولاً بناءً على أنماط في بيانات تدريبه، وليس كياناً يتمتع بوعي ذاتي حقيقي أو معرفة نظامية يقرأ كل شيء عن نفسه ويتذكره بطريقة ما.
استحالة التأمل الذاتي
ولا تستطيع نماذج اللغة الكبيرة التي تستخدمها برامج الذكاء الاصطناعي وحدها تقييم قدراتها الذاتية بشكل هادف لعدة أسباب، فهي تفتقر عموماً إلى أي تأمل ذاتي في عملية تدريبها، ولا تستطيع الوصول إلى بنية نظامها، ولا حتى تحديد حدود أدائها الخاصة.
وعندما تسأل نموذج ذكاء اصطناعي عما يمكنه فعله أو لا يمكنه فعله، فإنه يصدر إجابات بناءً على أنماط رصدها في بيانات التدريب حول القيود المعروفة لنماذج الذكاء الاصطناعي، مقدماً بذلك تخمينات مستنيرة بدلاً من تقييم ذاتي واقعي للنموذج الحالي الذي تتفاعل معه.
وعلى عكس البشر الذين يستطيعون التأمل وتقييم معرفتهم، لا تمتلك نماذج الذكاء الاصطناعي قاعدة معرفية مستقرة وسهلة الوصول يمكنها الاستعلام عنها.
وما تعرفه لا يتجلى إلا كاستمرار لمحفزات محددة لبيانات التدريب الخاصة بها، ما يعني أن النموذج نفسه يمكن أن يقدم تقييمات مختلفة تماماً لقدراته الخاصة بناءً على كيفية صياغة سؤالك.
قدمنا لكم زوارنا أهم وأحدث الأخبار فى هذا المقال : لماذا يقدم الذكاء الاصطناعي معلومات خاطئة عن قدراته أو أخطائه؟ - مصدرنا الإخبارى, اليوم الخميس 21 أغسطس 2025 07:58 مساءً
0 تعليق