من (راوی آنلاین) اینجا هستم تا با روایت های ارزشمند و کاربردی در زمینه های مختلف، بهت کمک کنم تا آگاهتر بشی، بهتر رشد کنی و با اطمینان بیشتری تو مسیر پیشرفتت قدم برداری. من در زمینه های مختلف روایت گری میکنم تا آگاهی بیشتری کسب کنی. ❤️

مدیر ChatGPT: جوابهای هوش مصنوعی همیشه نیاز به بررسی دارند!
به گزارش راوی خبر، وقتی یه گفتوگوی جدید رو با ChatGPT شروع میکنید، پایین صفحه یه متن هشدار میاد که میگه: «ChatGPT ممکنه اشتباه کنه، پس اطلاعات مهم رو بررسی کنید.» این نکته حتی توی جدیدترین نسخه مدل یعنی GPT-5 هم وجود داره. حالا یکی از مدیرای ارشد OpenAI دوباره روی همین موضوع تاکید کرده.
نیک تورلی، رئیس بخش ChatGPT، توی پادکست Decoder سایت The Verge گفته:
«بین خیلی قابلاعتماد بودن و صددرصد قابلاعتماد بودن فاصله زیادیه. تا وقتی که ثابت نکنیم از یه متخصص انسانی توی همه حوزهها مطمئنتر هستیم، بهتره کاربران جوابها رو دوباره چک کنن.»
ChatGPT فقط باید نظر دوم باشه، نه منبع اصلی
تورلی توضیح داده که مردم نباید ChatGPT رو منبع اصلی حقیقت بدونن. بهتره بیشتر بهعنوان یه نظر دوم بهش نگاه بشه. اون هشدار داده که چتباتهایی مثل ChatGPT گاهی «توهم» دارن و اطلاعاتی میدن که واقعی نیست. دلیلش هم اینه که این مدلها برای پیشبینی محتملترین جواب ساخته شدن، نه برای کشف حقیقت.
به گفته تورلی، بهترین استفاده از این ابزار وقتیه که کنارش از منابع معتبر مثل موتور جستجو یا دادههای اختصاصی یه شرکت استفاده بشه. اون اضافه کرده:
«هنوزم باور دارم بهترین محصول، مدلیه که به واقعیت وصل باشه. برای همین جستجو رو به ChatGPT اضافه کردیم و فکر میکنم همین تغییر خیلی تفاوت ایجاد کرده.»
پیشرفت GPT-5، اما هنوز با ایدهآل فاصله داره
تورلی همچنین گفته که GPT-5 نسبت به نسخههای قبلی تو کاهش خطاها خیلی پیشرفت داشته؛ ولی هنوز به حالت ایدهآل نرسیده. اون تاکید کرده:
«مطمئنم در نهایت مشکل توهم رو حل میکنیم، اما قطعاً نه در فصل بعدی.»
در نهایت، تورلی دوباره به کاربران توصیه کرده که حتی وقتی ChatGPT جوابها رو با لینک میده، باز هم باید با منابع معتبر یا نظر کارشناسا مقایسه بشن.