راوی آنلاین 📍
دستیار “آگاهی، توسعه و پیشرفت” ✨

مدیر ChatGPT: جواب‌های هوش مصنوعی همیشه نیاز به بررسی دارند!

0

به گزارش راوی خبر، وقتی یه گفت‌وگوی جدید رو با ChatGPT شروع می‌کنید، پایین صفحه یه متن هشدار میاد که میگه: «ChatGPT ممکنه اشتباه کنه، پس اطلاعات مهم رو بررسی کنید.» این نکته حتی توی جدیدترین نسخه مدل یعنی GPT-5 هم وجود داره. حالا یکی از مدیرای ارشد OpenAI دوباره روی همین موضوع تاکید کرده.

نیک تورلی، رئیس بخش ChatGPT، توی پادکست Decoder سایت The Verge گفته:

«بین خیلی قابل‌اعتماد بودن و صددرصد قابل‌اعتماد بودن فاصله زیادیه. تا وقتی که ثابت نکنیم از یه متخصص انسانی توی همه حوزه‌ها مطمئن‌تر هستیم، بهتره کاربران جواب‌ها رو دوباره چک کنن.»

ChatGPT فقط باید نظر دوم باشه، نه منبع اصلی

تورلی توضیح داده که مردم نباید ChatGPT رو منبع اصلی حقیقت بدونن. بهتره بیشتر به‌عنوان یه نظر دوم بهش نگاه بشه. اون هشدار داده که چت‌بات‌هایی مثل ChatGPT گاهی «توهم» دارن و اطلاعاتی میدن که واقعی نیست. دلیلش هم اینه که این مدل‌ها برای پیش‌بینی محتمل‌ترین جواب ساخته شدن، نه برای کشف حقیقت.

گلکسی S26 سامسونگ احتمالاً باریک‌تر از همیشه میاد!

📘 پیشنهاد من به تو

به گفته تورلی، بهترین استفاده از این ابزار وقتیه که کنارش از منابع معتبر مثل موتور جستجو یا داده‌های اختصاصی یه شرکت استفاده بشه. اون اضافه کرده:

«هنوزم باور دارم بهترین محصول، مدلیه که به واقعیت وصل باشه. برای همین جستجو رو به ChatGPT اضافه کردیم و فکر می‌کنم همین تغییر خیلی تفاوت ایجاد کرده.»

پیشرفت GPT-5، اما هنوز با ایده‌آل فاصله داره

تورلی همچنین گفته که GPT-5 نسبت به نسخه‌های قبلی تو کاهش خطاها خیلی پیشرفت داشته؛ ولی هنوز به حالت ایده‌آل نرسیده. اون تاکید کرده:

«مطمئنم در نهایت مشکل توهم رو حل می‌کنیم، اما قطعاً نه در فصل بعدی.»

در نهایت، تورلی دوباره به کاربران توصیه کرده که حتی وقتی ChatGPT جواب‌ها رو با لینک میده، باز هم باید با منابع معتبر یا نظر کارشناسا مقایسه بشن.

راوی خبر، بخشی از راوی آنلاین هست که تازه‌ترین خبرها از دنیای تکنولوژی، بازی، خودرو، علم و موضوعات مهم ایران و جهان رو براتون روایت می‌کنه.
📚 منبع The Verge
🎯 شاید از اینا هم خوشت بیاد
💬 یه پاسخ جدید بنویس

📝 ممنون که نظر میذاری، منتظرم تا نظرت رو درباره این مقاله بدونم.

17 + شش =