باحثون في MIT يطورون “ContextCite” للتحقق من المحتوى الذي تم إنشاؤه بواسطة الذكاء الصناعي

Image by pressfoto, from Freepik

باحثون في MIT يطورون “ContextCite” للتحقق من المحتوى الذي تم إنشاؤه بواسطة الذكاء الصناعي

وقت القراءة: 3 دقائق

أعلن باحثون في مختبر علوم الحاسب والذكاء الصناعي في MIT (CSAIL) عن ContextCite، وهي أداة تهدف إلى تحسين موثوقية المحتوى الذي تولده الذكاء الصناعي.

في عجلة من أمرك؟ هنا الحقائق السريعة!

  • تستخدم ContextCite “التجريدات السياقية” لتحديد السياق الخارجي الحاسم وراء الردود الذكاء الاصطناعي.
  • يمكن للأداة اكتشاف المعلومات المضللة والتخفيف من هجمات التسمم في المحتوى الذي تم إنشاؤه من قبل الذكاء الاصطناعي.
  • تبرز ContextCite المصادر الدقيقة التي يعتمد عليها نماذج الذكاء الاصطناعي للإجابات المحددة.

من خلال تتبع المصادر التي تعتمد عليها أنظمة الذكاء الاصطناعي وتحديد أصول الأخطاء المحتملة، يقدم ContextCite طريقة جديدة لتقييم موثوقية نماذج اللغة الكبيرة (LLMs).

تولد أنظمة الذكاء الصناعي غالبًا الردود باستخدام مصادر خارجية، لكن يمكنها أيضًا أن تنتج أخطاء أو أن تختلق معلومات بالكامل. يتصدى ContextCite لهذا الأمر من خلال تسليط الضوء على الأجزاء الدقيقة من المصدر التي أثرت في إجابة الذكاء الصناعي.

على سبيل المثال، إذا ادعت مساعدة بشكل غير دقيق أن نموذج يحتوي على تريليون معلمة استنادًا إلى سياق مفسر بشكل خاطئ، يساعد ContextCite في تحديد الجملة المحددة التي ساهمت في الخطأ.

بن كوهين-وانج، طالب الدكتوراه في MIT والباحث الرئيسي، يشرح في البيان الصحفي لـ MIT، “يمكن أن تكون المساعدات الذكية مفيدة جدًا في تجميع المعلومات، لكنها لا تزال تقوم بالأخطاء.”

“المساعدات الذكية الحالية غالبًا ما تقدم روابط المصدر، لكن على المستخدمين أن يراجعوا بشكل ممل المقالة بأنفسهم لاكتشاف أي أخطاء. يمكن أن يساعد ContextCite في العثور مباشرة على الجملة المحددة التي استخدمها النموذج، مما يجعل التحقق من الادعاءات واكتشاف الأخطاء أسهل،” أضاف.

تستخدم الأداة “التجريدات السياقية”، وهي طريقة تتضمن إزالة أجزاء من السياق الخارجي بشكل منهجي لتحديد الأقسام التي كانت حاسمة لاستجابة الذكاء الصناعي. يتيح هذا النهج للباحثين تحديد المادة المصدر الأكثر ذات الصلة بكفاءة دون الحاجة إلى تحليل شامل.

لدى ContextCite تطبيقات أوسع، بما في ذلك تحسين دقة الاستجابة من خلال إزالة المعلومات غير الذات الصلة والكشف عن “هجمات التسميم”. تتضمن هذه الهجمات تضمين العبارات المضللة في مصادر تبدو موثوقة للتلاعب بنتائج الذكاء الصناعي.

يمكن للأداة تتبع الردود الخاطئة إلى أصولها، مما قد يقلل من انتشار المعلومات الخاطئة.

على الرغم من إمكاناتها، يقول الباحثون أن لـ ContextCite قيوداً. يتطلب النظام الحالي عمليات استدلال متعددة، مما قد يبطئ تطبيقها. بالإضافة إلى ذلك، يمكن أن يجعل الترابط بين الجمل في النصوص المعقدة تحديد التأثيرات الخاصة تحدياً.

يعمل الباحثون على صقل الأداة لمواجهة هذه التحديات وتبسيط عملياتها.

يرى هاريسون تشيس، الرئيس التنفيذي لشركة LangChain، أن الأداة مهمة بشكل كبير للمطورين الذين يبنون تطبيقات LLM. لاحظ أن التحقق من ما إذا كانت النتائج مستندة حقاً إلى البيانات هو مهمة حرجة ولكنها تستهلك الكثير من الموارد، وأدوات مثل ContextCite قد تبسط هذه العملية.

أكد ألكساندر مادري، المحقق الرئيسي في CSAIL، على أهمية النظم الذكاء الاصطناعي الموثوقة. تمثل ContextCite نهجًا واحدًا لمعالجة هذه الحاجة، وخاصة مع استمرار الذكاء الاصطناعي في اللعب دوراً مركزياً في معالجة وتجميع المعلومات.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
5.00 بتصويت 2 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

اترك تعليقًا

Loader
Loader عرض المزيد…