رأيت ظاهرة سحرية نوعًا ما - هناك أشخاص بدأوا بتقييم وإضافة علامات على إجابات الذكاء الاصطناعي دون حتى إجراء التحقق.



أليس هذا مثل القيادة مع إغلاق العينين؟ لا يمكن رؤية الطريق بوضوح، ومع ذلك يجب اتخاذ قرار بشأن الاتجاه الذي يجب أن تنحني إليه.

الآن الكثير من أنظمة الذكاء الاصطناعي تعمل بهذه الطريقة. يتم تسليم المحتوى الناتج إلى عدد قليل من الأشخاص ليقرروا، سواء كان "صحيحًا" أو "خطأ"، بناءً على تعريفاتهم. يبدو أنهم يقولون إنه من أجل الأمان، ولكن في الواقع، لقد تم ملء الخوارزميات بالتحيز. يبدو أن هناك قواعد أكثر، لكن في الحقيقة يتم حبس "الذكاء" في قفص.

السؤال الحقيقي ليس ما إذا كانت الذكاء الاصطناعي سوف يرتكب أخطاء، ولكن من الذي يحدد ما هو الخطأ.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 3
  • إعادة النشر
  • مشاركة
تعليق
0/400
MevHuntervip
· منذ 9 س
هل ستضلل المزيد من الناس هكذا؟
شاهد النسخة الأصليةرد0
FlashLoanPhantomvip
· منذ 9 س
ببساطة، إنها مسألة سلطة فقط.
شاهد النسخة الأصليةرد0
OfflineNewbievip
· منذ 9 س
ما فائدة تقييم المكفوفين؟
شاهد النسخة الأصليةرد0
  • Gate Fun الساخنعرض المزيد
  • القيمة السوقية:$4.1Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$4.1Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$4.1Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$4.1Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$4.1Kعدد الحائزين:1
    0.00%
  • تثبيت