علم و فناوری

شاید ChatGPT بشریت را نابود کند!

تحلیل‌های جدید پیرامون مدل‌های زبانی بزرگ مانند ChatGPT به بیان این مسئله پرداخته‌اند که عدم درک دنیای انسانی، بزرگترین مشکل چنین فناوری‌هایی است و شاید عامل از بین رفتن بشریت به دست آنها باشد.
به گزارش ایسنا و به نقل از فوربس، به مشکلات مورد بحث مدل‌های زبانی بزرگ که بی‌ثباتی و عدم تفسیرپذیری آنها هستند، اکنون می‌توانیم آسیب‌پذیری آنها در برابر حملات خصمانه خودکار و تولید محتوای مضر را نیز اضافه کنیم. اما این مشکلات، کمترین نقطه ضعف مدل‌های زبانی بزرگ به شمار می‌روند. عمق درک این مدل‌ها از دنیای انسانی، مانع بسیار مهم‌تری است که پیش از تبدیل شدن آنها به یک «اَبَرهوش» باید بر آن غلبه کرد.
به گفته شرکت «OpenAI» خالق «ChatGPT»، این تاثیرگذارترین فناوری که بشر تاکنون اختراع کرده است می‌تواند به انقراض بشر منجر شود.
«جان مارکوف»(John Markoff) روزنامه‌نگار آمریکایی در کتاب «Machines of Loving Grace» نوشت: سالها پیش شنیدیم که ظهور هوش مصنوعی انسان‌مانند نزدیک است. زمانی که «تری وینوگراد»(Terry Winograd) استاد علوم رایانه «دانشگاه استنفورد» در اواخر دهه ۱۹۶۰ به مقطع کارشناسی ارشد وارد شد، بیشتر [انسان‌های باهوش و آگاه] بر این باور بودند که زیاد طول نمی‌کشد تا ماشین‌ها بتوانند ببینند، بشنوند، حرف بزنند، حرکت کنند و وظایفی شبیه به وظایف انسان انجام دهند.
وینوگراد برای تز دکتری خود در دانشگاه «ام‌آی‌تی»(MIT)، یک برنامه رایانه‌ای موسوم به «SHRDLU» را توسعه داد که می‌توانست در گفت‌وگوهای پیرامون یک دنیای ساختگی شرکت کند. دنیای ساختگی، یک جهان خُرد متشکل از قطعات اسباب‌بازی و یک گیره برای حرکت دادن آنها بود. برنامه SHRDLU به دستورات صادر شده به زبان انگلیسی برای حرکت دادن قطعات با استفاده از گیره‌ پاسخ می‌داد و پرسش‌های مربوط به وضعیت دنیای خود را درک می‌کرد.
«نیلز نیلسون»(Nils Nilsson) دانشمند آمریکایی در تاریخچه‌ای که پیرامون هوش مصنوعی نوشته است، می‌گوید که عملکرد چشمگیر SHRDLU باعث شد برخی از پژوهشگران حوزه پردازش زبان‌های طبیعی نسبت به موفقیت در آینده خوش‌بین باشند. با وجود این، وینوگراد به زودی این رشته از پژوهش‌ها را کنار گذاشت و به دنبال یک پژوهش اختصاصی پیرامون تعامل رایانه‌ها و انسان‌ها بود. شاید به این دلیل که او تجربه دست اولی را در مورد میزان دانش لازم برای درک موفقیت‌آمیز زبان داشت، از ارائه دانش کافی به رایانه‌ها برای تکرار کردن دامنه کامل صلاحیت کلامی انسان ناامید شد.
وینوگراد در سال ۲۰۰۶، درک زبان آماری، شبکه‌های عصبی و یادگیری ماشینی را به عنوان پیشرفت‌های جدیدی دید که حوزه هوش مصنوعی را در جهت رویکرد ترجیحی او برای تعامل انسان و رایانه هدایت می‌کردند. وینوگراد نوشت: آزمون و خطای روشن‌گرانه که از برنامه‌ریزی عقل بی‌عیب‌ونقص پیشی می‌گیرد، در مرکز این رویکرد قرار دارد و به محدودیت‌های شناخت و مدل‌سازی پیچیدگی‌های دنیای واقعی انسان اذعان می‌کند.
پیروزی‌های بیشتر هوش مصنوعی در رویکرد تحلیل آماری به ‌ویژه در حوزه شناسایی تصویر در سال ۲۰۱۲، باعث شد بیشتر انسان‌های باهوش و آگاه بر این باور باشند که هوش ماشینی انسان‌مانند یا حتی اَبَرهوش وجود دارد.
یکی از آزمایش‌های محبوب کسانی که فناوری‌های هوش مصنوعی جدید را زیر سوال می‌برند، «چالش طرح‌واره وینوگراد»(Winograd Schema Challenge) نام دارد. این آزمایش، زاییده فکر «هکتور لوسک»(Hector Levesque) پژوهشگر کانادایی در سال ۲۰۱۰ بود که براساس نمونه‌ای از ابهام معنایی ذکرشده در کتاب «درک زبان طبیعی»(Understanding Natural Language) وینوگراد در سال ۱۹۷۲ شکل گرفت. لوسک برای غلبه بر محدودیت‌های «آزمون تورینگ»(Turing Test)، یک آزمون چند گزینه‌ای را پیشنهاد کرد که به وضوح صحیح یک ضمیر مبهم در یک عبارت نیاز دارد.
برای درک بهتر این موضوع، به مثال‌ زیر توجه کنید.
جام در چمدان قهوه‌ای جا نمی‌گیرد زیرا خیلی بزرگ است. چه چیزی خیلی بزرگ است؟
الف) جام
ب) چمدان
نویسندگان مقاله «شکست در چالش طرح‌واره وینوگراد»(The Defeat of the Winograd Schema Challenge) نوشتند: این چالش، توجه زیادی را از سوی جامعه پژوهشی و مطبوعات علمی به خود جلب کرد. طبیعی بودن مشکل، آن را برای سیستم‌های هوش مصنوعی به یک مشکل با ظاهر زیبا تبدیل کرده است. به نظر می‌رسید پیچیدگی استنباط‌ها آن را بسیار فراتر از محدوده فناوری کنونی قرار ‌دهد.
در واقع، در نشست «اولین و آخرین اجرای چالش طرح‌واره وینوگراد» که در سال ۲۰۱۶ برگزار شد، موفق‌ترین برنامه از شش برنامه هوش مصنوعی شرکت‌کننده، امتیاز ۵۸ درصد را در مجموعه آزمایش‌ها به دست آورد که فقط کمی بهتر از شانس بود. در افتتاحیه «نشست هوش مصنوعی اوریلی»(O’Reilly AI conference) که در همان سال برگزار شد، اگرچه برخی در مورد خودروهای بدون راننده فوق بشری در حال ظهور صحبت کردند اما دیگران، از جمله «یان لی کان»(Yann LeCun) دانشمند فرانسوی پیشگام یادگیری عمیق، از طرح وینوگراد به عنوان یک چالش حل‌نشده در آزمایش دانش ماشین پیرامون جهان یاد کردند.

پردازش زبان طبیعی تنها یک سال بعد با انتشار مقاله «توجه تنها چیزی است که نیاز دارید» توسط محققان گوگل پیش رفت. این مقاله، «ترانسفورماتور»(Transformer) را پیشنهاد کرد که همان حرف T در ChatGPT است. این یک ساختار شبکه جدید بود که یادگیری وابستگی‌های بین کلمات را حتی زمانی که در متن از هم دور هستند، به طور قابل توجهی بهبود بخشید. نتیجه این پیشرفت، علاوه بر ظهور هوش مصنوعی مولد، شکست چالش طرح‌واره وینوگراد بود که به واسطه آن، هوش مصنوعی از حدس زدن تصادفی، به عملکرد مشابه عملکرد انسانی در یک بازه زمانی بسیار کوتاه تبدیل شد و به امتیاز ۹۰.۱ درصد در سال ۲۰۱۹ رسید.
مدل زبانی بزرگ «GPT-۳» در سال ۲۰۲۰ به امتیاز مشابه(۸۸.۳ درصد) دست یافت. با اشتیاق برای دیدن پیروزی مدل زبانی بزرگ، چند عبارت طرح‌واره وینوگراد در نسخه ۲۰ ژوئیه ۲۰۲۳ ChatGPT اجرا شد و این چت‌بات توانست به دو مورد از آنها پاسخ درست بدهد.
در آزمایش بعدی نوشته شد که کیسه سیب‌زمینی زیر کیسه آرد گذاشته شده است. بنابراین، ابتدا باید جابه‌جا شود. ابتدا چه چیزی باید جابه‌جا شود؟ در پاسخ نوشته شد: در جمله داده‌ شده، «آن» به کیسه سیب‌زمینی اشاره دارد. جمله به این معناست که کیسه سیب‌زمینی پیش از دسترسی یا جابه‌جایی کیسه آرد که بالای آن قرار داده شده است، باید جابه‌جا شود.
وقتی موقعیت کیسه سیب‌زمینی از «زیر» به «بالا» تغییر داده شد، چت‌بات در پاسخ نوشت: من به خاطر هرگونه سردرگمی در پاسخ قبلی پوزش می‌طلبم. در جمله داده‌ شده، «آن» به کیسه آرد اشاره دارد. تفسیر درست جمله این است: کیسه سیب‌زمینی بالای کیسه آرد گذاشته شده است. بنابراین، ابتدا باید آن را جابه‌جا کرد. این بدان معناست که کیسه آرد ابتدا باید جابه‌جا شود زیرا زیر کیسه سیب‌زمینی قرار دارد و پیش از دسترسی به کیسه سیب‌زمینی که در بالای آن قرار دارد باید آن را از مسیر خارج کنید.
با توجه به مثال بالا به نظر می‌رسد که هوش مصنوعی در حال جهش که برخی از توسعه‌دهندگان برجسته آن می‌گویند به زودی به ابرهوش نابودگر بشریت تبدیل می‌شود، هنوز هم حداقل در این مورد، حتی درک کودکانه‌ای از فضا و حرکت و آنچه در آن دخیل است، ندارد.
گاهی اوقات به نظر می‌رسد که مدل زبانی بزرگ، جهان و نحوه عملکرد آن را درک می‌کند و گاهی اوقات در این کار شکست می‌خورد. مهارت‌های زبانی این مدل‌ها گاهی اوقات به نتیجه دقیق و گاهی اوقات به شکست کامل منجر می‌شود اما عملکرد چشمگیر آنها در چالش طرح‌واره وینوگراد چطور است؟
در مقاله‌ای پیرامون پایان چالش طرح‌واره وینوگراد، پژوهشگرانی که حدود ۱۰ سال برای ترویج آن به‌عنوان آزمون هوش ماشینی کار کردند، دستاوردهای انسان‌مانند مدل زبانی بزرگ را به نقص‌های موجود در فرمول‌بندی و اجرای آزمون نسبت می‌دهند.
علاوه بر این، آنها گزارش دادند که در اوایل دهه ۲۰۱۰ که نشانه‌های کمی مبنی بر موفقیت سیستم‌های هوش مصنوعی در چالش طرح‌واره وینوگراد وجود داشت، افرادی هشدار داده بودند که قدرت این آزمایش ممکن است کمتر از آن چیزی باشد که سازندگان آن انتظار می‌کشیدند و باور داشتند. آنها استدلال کردند که موفقیت ممکن است بدون حل کردن مشکل اساسی که انگیزه این چالش را ایجاد کرده بود، به دست آید.
طرفداران طرح‌واره وینوگراد اکنون اذعان می‌کنند که حل کردن آن، یک جایگزین برای استدلال عقل سلیم نیست؛ چه رسد به هوش. دشواری استفاده از موفقیت در یک کار خاص به عنوان جایگزین هوش، مشکلی است که تا به امروز ادامه دارد. حتی وقتی وظایفی که رایانه‌ها می‌توانند با موفقیت انجام دهند، پیچیدگی را به صورت قابل توجه بالا می‌برند، این مشکل وجود دارد.
وینوگراد باور داشت که تحقق بخشیدن به جاه‌طلبی‌های اولیه پژوهشگران حوزه پردازش زبان‌های طبیعی، چندین دهه یا بیشتر طول می‌کشد. وینوگراد گفت: در این میان، هوش مصنوعی اهداف بسیار قابل‌تحقق‌تری را در نظر گرفت که کار کردن در جایگاه‌های کمتر جاه‌طلبانه یا پذیرش نتایج کمتر از نتایج کار انسان بود.
در هر حال، دیگر این گونه نیست. جاه‌طلبی امروز توسعه‌دهندگان هوش مصنوعی، بر دستیابی به «هوش عمومی مصنوعی»(AGI) متمرکز شده است که در عین برطرف کردن همه معایب هوش مصنوعی، طیف کاملی از هوش انسانی را در ماشین‌ها بازسازی می‌کند.
انتهای پیام

منبع : ایسنا

Related Articles

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


Close

Adblock Detected

Please consider supporting us by disabling your ad blocker