ChatGPT: لماذا توقفت النصائح الطبية والقانونية؟
انتشرت على وسائل التواصل الاجتماعي مزاعم بشأن منع OpenAI لـ ChatGPT من تقديم النصائح القانونية والطبية، ومع ذلك، أكدت الشركة أن هذا الادعاء غير صحيح، وأوضحت أن سلوك المنصة لم يتغير إطلاقًا.
في هذا السياق، أوضح كاران سينغال، رئيس قسم الذكاء الاصطناعي الصحي في OpenAI، عبر منصة X (تويتر سابقًا) أن الأخبار التي تم تداولها ليست دقيقة، مشيرًا إلى أن ChatGPT لم يكن في أي وقت بديلًا عن المشورة المهنية، لكنه ما زال أداة مفيدة تساعد الأفراد على فهم المعلومات القانونية والصحية بصورة أفضل. تأتي هذه التصريحات في أعقاب نشر على منصة المراهنات Kalshi، التي زعمت فيه أن ChatGPT لن يقدم نصائح صحية أو قانونية، قبل أن تقوم بحذف التغريدة لاحقًا، وأكد سينغال أن السياسات المتعلقة بالنصائح القانونية والطبية لم تكن جديدة، وإنما هي موجودة بالفعل في شروط استخدام المنصة.
بحسب سينغال، فإن إدراج سياسات متعلقة بالاستشارات القانونية والطبية لا يمثل تغييرًا جديدًا في شروط المستخدم، حيث يتضمن تحديث السياسة الجديد الصادر في 29 أكتوبر قائمة بالأمور التي لا يجوز استخدام ChatGPT من أجلها، مثل تقديم استشارات مخصصة تتطلب ترخيصًا، مثل الاستشارات القانونية أو الطبية، دون مشاركة من متخصص مرخص.
تشابه هذه السياسات سياسات استخدام ChatGPT القديمة لشركة OpenAI، حيث نصت على أنه يجب على المستخدمين تجنب الأنشطة التي قد تلحق ضررًا كبيرًا بأسلحة الآخرين أو صحتهم أو حقوقهم، بما في ذلك تقديم استشارات قانونية أو طبية أو مالية مخصصة دون مراجعة من قبل متخصص مؤهل والإفصاح عن استخدام الذكاء الاصطناعي وقيوده المحتملة.
في ذات السياق، كانت OpenAI تمتلك سابقًا ثلاث سياسات منفصلة، بما في ذلك سياسة “عالمية”، بالإضافة إلى سياسات خاصة باستخدام ChatGPT وواجهات برمجة التطبيقات، ومع التحديث الجديد، وضعت الشركة قائمة موحدة من القواعد، حيث يشير سجل التغييرات الخاص بها إلى أنها تعكس مجموعة شاملة من السياسات لجميع منتجات وخدمات OpenAI، ولكن القواعد الأساسية تظل كما هي.
