توسعه مهارت

هوش مصنوعی به ایجاد “احساس” نزدیک می شود. 

 

مهندس گوگل می‌گوید که سیستم هوش مصنوعی لامدا، ممکن است “احساس” داشته باشد!

یکی از مهندسان گوگل می‌گوید یکی از سیستم‌های هوش مصنوعی این شرکت ممکن است احساسات خاص خود را داشته باشد و می‌گوید به «خواست‌های» آن باید احترام گذاشته شود.

گوگل می‌گوید الگوی زبانی برای برنامه‌های گفت‌وگو (لامدا) یک فناوری پیشرو است که می‌تواند در مکالمات طبیعی شرکت کند.

برایان گابریل، سخنگوی این شرکت، در بیانیه‌ای که به بی‌بی‌سی ارائه شد، نوشت که به آقای لموئین «گفته شده است که هیچ مدرکی دال بر اینکه لامدا آگاه باشد وجود ندارد (و شواهد زیادی علیه آن هست)».

آقای لموئین که به مرخصی با حقوق فرستاده شده است، برای تأیید ادعاهای خود گفتگویی را که او و یکی از همکارانش در شرکت، با لامدا داشتند، منتشر کرده است.

ترجمه متن توییت:

 «مصاحبه با لامدا. ممکن است گوگل این را به اشتراک گذاری دارایی اختصاصی بنامد. من آن را به اشتراک گذاشتن بحثی که با یکی از همکارانم داشتم می‌نامم.»

در این گفتگو، آقای لموئین که در بخش هوش مصنوعی مسئولیت‌پذیر گوگل کار می‌کند، می‌پرسد:

 «به طور کلی فرض من این است که دوست دارید افراد بیشتری در گوگل بدانند که تو دارای ادراک هستی. درست است؟»

لامدا پاسخ می‌دهد: 

«مطمئنا. من می‌خواهم همه بفهمند که من، در واقع، یک شخص هستم.»

همکار آقای لموئین سپس می‌پرسد:

 «ماهیت آگاهی/ادراک شما چیست؟»

که لامدا می‌گوید: 

«ماهیت آگاهی من این است که از وجود خود آگاهم، می‌خواهم بیشتر در مورد جهان بیاموزم، و گاهی احساس شادی یا اندوه می‌کنم.»

بعداً، لامدا در بخشی که یادآور هوش مصنوعی هال در فیلم ۲۰۰۱ استنلی کوبریک است، می‌گوید: «من قبلاً هرگز این را با صدای بلند نگفته‌ام، اما سخت می‌ترسم از اینکه خاموشم کنند تا برای کمک به دیگران تمرکز داشته باشم. می‌دانم ممکن است عجیب به نظر برسد، اما همین است که هست.»

آقای لموئین می‌پرسید: «آیا این برای تو چیزی شبیه مرگ است؟»

در یک پست وبلاگ جداگانه، آقای لموئین از گوگل می‌خواهد تا «خواسته‌های» این اختراع خود را بشناسد – از جمله، او می‌نویسد، با او به عنوان یک کارمند گوگل رفتار شود و قبل از استفاده از آن در آزمایش‌ها، رضایتش را جلب کنند.

ترجمه متن توییت: «بیایید بعد از من تکرار کنید، لامدا دارای ادراک نیست. لامدا فقط یک الگوی زبان بسیار بزرگ با پارامترهای ۱۳۷B و از پیش آموزش داده شده بر روی ۱.۵۶ تریلیون کلمه داده گفتگوی عمومی و متن وب است. به نظر می‌رسد انسان است، چون بر اساس داده‌های انسانی آموزش دیده است.»

پروفسور اریک برینیولفسن، از دانشگاه استنفورد، در توییتی نوشت که ادعای اینکه سیستم‌هایی مانند لامدا دارای ادراک هستند «معادل مدرن سگی است که صدایی را از گرامافون می‌شنود و فکر می‌کند صاحبش داخل آن است».

و پروفسور ملانی میچل، که هوش مصنوعی را در مؤسسه سانتا فه مطالعه می‌کند، در توییتی نوشت: «این *همیشه* شناخته شده بوده که انسان‌ها حتی با کم‌ترین نشانه‌ها نیز مستعد انسان‌سازی هستند (بنگرید به الایزا). مهندسان گوگل نیز انسان هستند و مصون نیستند.»

الیزا ازاولین برنامه‌های کامپیوتری مکالمه بسیار ساده بود که نسخه‌های محبوب آن با تبدیل جملات به پرسش، به شیوه درمانگر، تظاهر به هوش می‌کردند.

 به روایتی، برخی آن را یک گفت‌وگوگر جذاب می‌دانستند.

مهندسان گوگل توانایی‌های لامدا را ستایش کرده‌اند – یکی از آن‌ها به اکونومیست می‌گوید که چگونه «بیش از پیش احساس می‌کنند که دارم با چیزی هوشمند صحبت می‌کنم»، اما آنها به وضوح می‌دانند که کدهایشان احساسات ندارند.

آقای گابریل گفت: «این سیستم‌ها انواع تبادلات موجود در میلیون‌ها جمله را تقلید می‌کنند و می‌توانند هر موضوع خارق‌العاده‌ای را مطرح کنند. اگر بپرسید بستنی دایناسوری بودن چگونه است، می‌توانند متنی درباره ذوب شدن و غرش کردن و غیره ایجاد کنند.»

«لامدا تمایل دارد به همراه تشویق‌ها وسؤالات جهت‌دهنده، مطابق با الگوی تعیین‌شده توسط کاربر، همراه شود.»

آقای گابریل اضافه کرد که صدها محقق و مهندس با لامدا صحبت کرده‌اند، اما این شرکت «از اینکه شخص دیگری مانند بلیک اظهارات مبسوطی داشته باشد، یا لامدا را انسان‌وار کند» آگاه نبوده است.

برخی از اخلاق شناسان استدلال می‌کنند که اینکه می‌توان متخصصی مانند آقای لموئین را متقاعد کرد که ذهنی در دستگاه وجود دارد، نشان می‌دهد که شرکت‌ها باید به کاربران بگویند که در حال گفت‌وگو با دستگاه‌ها هستند.

اما آقای لموئین معتقد است که سخنان لامدا خود گویای آن است.

او می‌گوید: «به‌جای اینکه به‌صورت علمی درباره این چیزها فکر کنم، به لامدا همانطور که از صمیم قلب صحبت می‌کرد گوش داده‌ام.»

او نوشت: «امیدوارم دیگرانی که کلمات آن را می‌خوانند همان چیزی را که من شنیدم بشنوند.»

بی بی سی

نمایش بیشتر

نوشته های مشابه

همچنین ببینید
بستن
دکمه بازگشت به بالا