وفقًا لأحدهم ، فإن صانع الرقائق يأخذ مزيد من الميل لإنتاج أدوات مطوري الذكاء الاصطناعى التوليدي مع الحصول على شركة بيانات اصطناعية أكبر لمطوري الذكاء الاصطناعي NVIDIA. تقرير من السلكية الأربعاء

وتأتي هذه الخطوة عندما تسعى شركات الذكاء الاصطناعى الإنتاجية لإيجاد بيانات كافية لتدريب وتحسين نماذجها ، مما يزيد من الحاجة إلى إنشاء البيانات.

وفقًا للتقرير ، سيتم ربط موظفين أكبر بـ NVIDIA. أكبر ، والتي تنتج بيانات اصطناعية أو اصطناعية للتدريب على نموذج الذكاء الاصطناعي ، ستعزز عروض Nvidia لمطوري الذكاء الاصطناعي.

رفض متحدث باسم NVIDIA التعليق على التقرير.

لماذا البيانات الاصطناعية مهمة

يتطلب نموذج لغة كبير مثل قطار Openi Chattigpit الكثير من البيانات لنماذج الذكاء الاصطناعى. يمكن أن تخلق بيانات العالم الحقيقي مشكلة لمطوري الذكاء الاصطناعي-وهذا هو الضوضاء ، وليس كافية.

تعمل شركات الذكاء الاصطناعى على الحد الأقصى لبيانات التدريب المتوفرة لها بحرية ، مما يتسبب في نزاعات لمعرفة ما إذا كان يمكنهم استخدام محتوى حقوق الطبع والنشر. قدم المئات من الممثلين والكتاب والمديرين خطابًا مفتوحًا إلى مكتب إدارة العلوم والتكنولوجيا في إدارة ترامب لزيادة مخاوفهم بشأن بيانات حقوق الطبع والنشر. حاليًا ، يطلب Openi الحكومة السماح بأقصى قدر من الوصول إلى محتويات المنشور الصحيح لتدريب نموذج الذكاء الاصطناعي ، وإلا فإن الشركات الأمريكية ستترك وراء الصين.

انظر هذا: عرض NVIDIA GTC 2025 ملاحظة المفتاح: جميع النقاط البارزة في 16 دقيقة

يتم تقدير البيانات الاصطناعية أيضًا في حماية المعلومات الخاصة. تقول Greatel إن بياناتها الاصطناعية يمكن استخدامها لتدريب النماذج والأدوات دون تعريض المعلومات الحساسة أو الشخصية – على سبيل المثال ، بيانات الرعاية الصحية التي لا تحدد الأفراد وربما تنتهك قوانين الخصوصية.

التدريب النموذجي لديه مخاوف بشأن استخدام هذه البيانات. في الواقع ، فإن تجاوز المعلومات المتصلة يمكن أن يزيد من إمكانية أن يجعل النموذج الأمور خاطئة. إذا زادت المشكلة سوءًا ، فقد تتسبب في وجود مشكلة تُعرف باسم القضاء على النموذج ، عندما يخطئ النموذج في أنه يصبح عديم الفائدة.



رابط المصدر