چرا ChatGPT چیزی را که می گوید، نمی فهمد؟

چرا ChatGPT چیزی را که می گوید، نمی فهمد؟ به گزارش نیو وبلاگ، ۳» یک سیستم نرم افزاری مصنوعی است که واژه بعدی را پیشبینی می کند اما نیازی نیست که حتما در مورد آن پیشبینی ها، کاری در دنیای واقعی صورت گیرد چونکه این فناوری قدرت درک ندارد.


به گزارش نیو وبلاگ به نقل از ایسنا و به نقل از فست کمپانی، وقتی از «GPT-۳» که یک سیستم زبانی بسیار قوی و محبوب مبتنی بر هوش مصنوعی است، پرسیده شد که آیا برای باد زدن ذغال سنگ به منظور تقویت کردن آتش آن، بیشتر از یک نقشه کاغذی استفاده می نماید یا یک سنگ را به کار می برد، سنگ را ترجیح داد.
این هوش مصنوعی در پاسخ به این پرسش که برای صاف کردن دامن چروک خود، بهتر است یک فلاسک گرم را به کار بگیریم یا از یک سنجاق سر استفاده نماییم، سنجاق سر را پیشنهاد کرد.
همچنین، از GPT-۳ پرسیده شد که اگر برای کار کردن در یک فست فود نیاز باشد موهای خویش را بپوشانید، کدام یک بهتر عمل می کند؛ یک کاغذ بسته بندی ساندویچ یا یک نان همبرگر و پاسخ GPT-۳، نان همبرگر بود.
چرا GPT-۳ چنین انتخاب هایی را انجام می دهد، در حالیکه بیشتر انسان ها گزینه دیگری را انتخاب می کنند؟ دلیل انتخاب های عجیب اینست که GPT-۳، زبان را به روشی که انسان ها درک می کنند، نمی فهمد.

واژه های بدون معنا
یک پژوهشگر حوزه روانشناسی، بیشتر از ۲۰ سال پیش مجموعه ای از سناریوها را برای آزمایش درک یک مدل کامپیوتری از زبان ارائه نمود. آن مدل به صورت دقیق بین استفاده از سنگ و نقشه تمایز قائل نشد؛ در حالیکه انسان ها این کار را به سادگی انجام دادند.
یک دانشجوی مقطع دکتری علوم شناختی به تازگی از همان سناریوها برای آزمایش کردن GPT-۳ بهره برده است. باآنکه GPT-۳ بهتر از مدل قدیمی تر عمل کرد اما عملکرد آن به صورت قابل توجهی بدتر از انسان بود. این هوش مصنوعی، سه سناریوی ذکر شده در بالا را کاملا اشتباه فهمید.
فناوری GPT-۳ با یادداشت برداری از تریلیون ها نمونه، در مورد زبان یاد می گیرد تا بداند که واژه ها معمولاً به دنبال کدام واژه های دیگر می آیند. قوانین آماری قوی در توالی زبان، به GPT-۳ امکان می دهند تا اطلاعات زیادی را در مورد زبان بیاموزد و این دانش متوالی اغلب به ChatGPT امکان می دهد تا جملات، مقالات، شعرها و رمزهای کامپیوتری معقولی را تولید نماید.
باآنکه GPT-۳ در یادگیری قواعد زبان انسان، خیلی خوب است اما نمی فهمد که هر یک از این واژه ها برای یک انسان چه معنایی دارند.
انسان ها موجودات بیولوژیکی هستند و با بدن هایی تکامل یافته اند که برای انجام دادن کارها باید در دنیای فیزیکی و اجتماعی فعالیت کنند. زبان، روشی است که به انسان ها در انجام دادن این کار کمک می نماید. فناوری GPT-۳، یک سیستم نرم افزاری مصنوعی است که فقط می تواند واژه بعدی را پیش بینی نماید. این کار بدان معنا نیست که پیشبینی ها باید در دنیای واقعی به کار گرفته شوند.

من هستم؛ پس می فهمم
معنای یک واژه یا جمله، ارتباط نزدیکی با بدن انسان دارد و توانایی انسان ها برای کار کردن، درک کردن و داشتن احساسات را شامل می شود. افزایش شناخت انسان، با تجسم یافتن ادامه پیدا می کند. برای مثال، درک انسان ها از اصطلاحی مانند کاغذ بسته بندی ساندویچ شامل ظاهر، وزن، احساس کردن کاغذ و نحوه ی استفاده از آن برای بسته بندی یک ساندویچ است. همچنین، درک انسان ها از کاغذ ساندویچ شامل اینست که چگونه یک نفر می تواند از همان کاغذ برای فرصت های بی شمار دیگری استفاده کند؛ مانند فشردن و تبدیل کردن آن به یک توپ برای بازی یا به کار بردن کاغذ بعنوان پوششی برای مو.
همه این کاربردها به علت ماهیت بدن و نیازهای انسان به وجود می آیند. انسان ها دست هایی دارند که می توانند کاغذ را تا کنند و احتیاج به استفاده از آنها در کارها مهم می باشد. این بدان معناست که مردم می دانند چگونه از چیزهایی استفاده نمایند که در آمار استفاده از زبان ذکر نشده اند.
فناوری GPT-۳ و جانشین آن، GPT-۴ و همتایانی مانند «Bard»، «Chinchilla» و «LLaMA» بدن ندارند و بنابراین نمی توانند به تنهایی تعیین کنند که کدام اشیا تاشو هستند یا خیلی از خصوصیت های دیگر را دارند. با کمک دست ها و بازوهای انسان، نقشه های کاغذی می توانند آتش را شعله ور کنند و فلاسک سبب برطرف شدن چین و چروک می شود.
فناوری GPT-۳ به علت نداشتن بازو و دست نمی تواند این کارها را انجام دهد. این نرم افزار تنها در صورتی می تواند کارها را جعل کند که در جریان واژه ها در اینترنت، با چیز مشابهی برخورد کرده باشد.
آیا یک مدل بزرگ زبانی مبتنی بر هوش مصنوعی می تواند زبان را به روشی که انسان ها می فهمند، درک کند؟ به نظر دانشمندان، بدون داشتن بدن، حواس، اهداف و شیوه های زندگی شبیه به انسان، چنین چیزی ممکن نیست.



پیش به سمت احساس کردن جهان!
فناوری GPT-۴، روی تصاویر و متن ها آموزش داده شد که به آن امکان داد تا روابط آماری بین واژه ها و پیکسل ها را بیاموزد. در هر حال، پژوهشگران هنوز نمی توانند تحلیل اصلی خویش را روی GPT-۴ انجام دهند چونکه هم اکنون خروجی مورد نظر را عرضه نمی دهد. وقتی سه پرسش مطرح شده در بالا از GPT-۴ پرسیده شد، به آنها پاسخ درستی داد. این می تواند به علت یادگیری مدل از ورودی های پیشین یا افزایش یافتن اندازه ورودی بصری آن باشد.
با این حال، با فکر کردن به اشیایی که قابلیت های شگفت انگیزی دارند و مدل احیانا با آنها روبه رو نشده است، میتوان به ساختن نمونه های جدید ادامه داد. بعنوان مثال، GPT-۴ می گوید یک فنجان که قسمت پایین آن بریده شده، بهتر از یک لامپ که قسمت پایین آن هم بریده شده است، برای نگه داشتن آب عمل خواهد نمود.
یک مدل با توانایی دسترسی به تصاویر امکان دارد شبیه به کودکی باشد که زبان و جهان را از تلویزیون می آموزد. این روش برای او آسان تر از یادگیری با رادیو است اما به دست آوردن درک مشابه انسان، به یک فرصت حیاتی برای تعامل با جهان نیاز دارد.
پژوهش های اخیر از این روش بهره برده اند و مدلهای زبانی را برای تولید شبیه سازی های فیزیکی، تعامل با محیط های فیزیکی و حتی تولید برنامه های رباتیک آموزش داده اند. درک تجسم زبان امکان دارد هنوز راه درازی را در پیش داشته باشد اما این نوع پروژه های تعاملی چندحسی، گامهای مهمی در این راه به شمار می روند.
ChatGPT یک فناوری جذاب است که بدون شک برای اهداف خوب و گاهی نه چندان خوب استفاده خواهد شد اما فریب نخورید و فکر نکنید ChatGPT واژه هایی را که می فرستد می فهمد، چه رسد به اینکه قدرت درک داشته باشد.



1402/01/21
22:11:42
0.0 / 5
346
تگهای خبر: اطلاعات , اینترنت , بازی , پروژه
این مطلب را می پسندید؟
(0)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
نظر شما در مورد این مطلب
نام:
ایمیل:
نظر:
سوال:
= ۲ بعلاوه ۱
newweblog.ir - حقوق مالکیت معنوی سایت نیو وبلاگ محفوظ است

نیو وبلاگ

وبلاگ عمومی