مايكروسوفت تطلق ميزة «تصحيح» هلوسة الذكاء الاصطناعي
أطلقت شركة مايكروسوفت مؤخرًا ميزة جديدة تُعرف باسم” التصحيح” والتي تمثل خطوة مهمة في جهود الشركة لمكافحة الأخطاء التي تنتج عن أنظمة الذكاء الاصطناعي المتعددة.
وتهدف هذه الميزة إلى تمكين العملاء الذين يستخدمون Microsoft Azure من الكشف بشكل تلقائي عن المحتوى غير الصحيح وإعادة كتابته، مما يعزز دقة المعلومات المقدمة.
اقرأ المزيد من صحيفة هتون الدولية
وتتوفر ميزة التصحيح في المعاينة كجزء من Azure AI Studio وهي مجموعة من أدوات الأمان المصممة للكشف عن الثغرات الأمنية، والعثور على “الهلوسة”، وحظر المطالبات الضارة ، وبمجرد تمكينها سيقوم نظام التصحيح بمسح وتحديد عدم الدقة في مخرجات الذكاء الاصطناعي من خلال مقارنتها بالمواد المصدرية للعميل.
من هناك، سيتم تسليط الضوء على الخطأ، وتوفير معلومات حول سبب عدم صحته، وإعادة كتابة المحتوى بالمعني الصحيح ، كل ذلك “قبل أن يتمكن المستخدم من رؤية” عدم الدقة.
فى حين أن هذا يبدو وكأنه طريقة مفيدة لمعالجة الهراء الذي غالبًا ما تتبناه نماذج الذكاء الاصطناعي ، إلا أنه قد لا يكون حلاً موثوقًا به تمامًا.
وتحتوى Vertex AI، وهى منصة سحابية من Google للشركات التى تعمل على تطوير أنظمة الذكاء الاصطناعي، على ميزة “تؤسس” نماذج الذكاء الاصطناعى من خلال التحقق من النتائج مقابل بحث Google وبيانات الشركة الخاصة و(قريبًا) مجموعات بيانات الجهات الخارجية.
وأوضح متحدث باسم مايكروسوفت في مقابلة مع TechCrunch: “نأمل أن تدعم هذه الميزة الجديدة بناة ومستخدمي الذكاء الاصطناعي التوليدي في مجالات مثل الطب، حيث يتعين على المطورين ضمان دقة الاستجابات”.
تُعد الهلوسة في الذكاء الاصطناعي ظاهرة تحدث عندما تولد نماذج اللغة نصوصًا تبدو معقولة ولكنها في الواقع غير صحيحة أو مضللة، وتعتمد هذه النماذج على أنماط البيانات التي تم تدريبها عليها، نظرًا لأن نماذج الذكاء الاصطناعي لا يمكنها التفكير بشكل مستقل، مما يجعلها تفتقر إلى الفهم العميق للحقائق، ونتيجة لذلك يُمكن أن تقدم معلومات غير دقيقة، مما يؤثر سلبًا على دقة المحتوى المنتج.