یکی از مهندسان گوگل مدعی شده که هوش مصنوعی گوگل به ادراک رسیده است. او این خبر را با گوگل در میان گذاشت؛ اما پاسخ گوگل، تعلیق او از کار بود. به گزارش واشنگتن پست، گوگل یکی از مهندسان خود را به دلیل نقض سیاستهای محرمانه تعلیق کرد. این مهندس درباره توانایی هوش مصنوعی گوگل ابراز نگرانی کرده و گفته بود سیستم چتبات به ادراک رسیده است.
بلیک لموین (Blake Lemoine) که برای سازمان Responsible AI گوگل کار میکند، در حال آزمایش مدل LaMDA بود و باید مشخص میکرد که آیا این مدل میتواند حرفهای تبعیضآمیز بزند و نفرتپراکنی کند یا خیر.
بر اساس گزارشها، نگرانیهای بلیک لموین ناشی از پاسخهای قانعکنندهای بود که سیستم هوش مصنوعی در مورد حقوق خود و اصول اخلاقی رباتیک بیان میکرد. او در ماه آوریل، سندی را با عنوان «آیا LaMDA به ادراک رسیده؟» با مدیران اجرایی به اشتراک گذاشت که حاوی متنی از مکالمات خود با هوش مصنوعی بود. لموئین پس از مرخصی اجباری، متن را از طریق حساب کاربری خود در Medium منتشر کرد. او در سند خود نوشته بود که مدل «هوشمند است زیرا احساسات، عواطف و تجربه ذهنی دارد.»
از ادراک هوش مصنوعی گوگل چه میدانیم؟
روزنامه واشنگتن پست و گاردین گزارش میدهند که گوگل معتقد است اقدامات لموین در رابطه با کارش روی مدل LaMDA، سیاستهای محرمانه بودن آن را نقض کرده است. بنا بر گزارشها، او از یک وکیل خواسته که وکالت سیستم هوش مصنوعی گوگل را بر عهده بگیرد و با یک نماینده از کمیته قضایی مجلس نمایندگان (House Judiciary committee) درباره ادعای گوگل مبنی بر نقض قوانین صحبت کرده است.
گوگل در رویداد I/O سال گذشته خود از مدل هوش مصنوعی LaMDA رونمایی کرده بود. این کمپانی ابراز امیدواری کرده بود که این سیستم بتواند به عملکرد دستیار هوش مصنوعی گوگل، توانایی مکالمه آن و بهبود مکالمات طبیعیتر دستیار هوش مصنوعی کمک کند. این شرکت در حال حاضر از فناوری مدل زبانی مشابه برای ویژگی Smart Compose جیمیل یا برای جستجوهای موتورهای جستجوی گوگل استفاده میکند.
برایان گابریل (Brian Gabriel)، سخنگوی گوگل با انتشار بیانیهای در واشنگتن پست مدعی شد که هیچ مدرکی مبنی بر توانایی ادراک LaMDA وجود ندارد. «تیم ما نگرانیهای بلیک را بر اساس اصول هوش مصنوعیمان بررسی کرده و به او اطلاع دادند که شواهد کافی برای ادعاهای او وجود ندارد. به او گفته شد که هیچ مدرکی دال بر توانایی ادراک LaMDA وجود ندارد و شواهدی هست که خلاف آن را ثابت میکند.»
گابریل گفت: «البته، برخی افراد در جوامع هوش مصنوعی در حال بررسی این توانایی هوش مصنوعی در بلند مدت هستند. اما منطقی نیست که چین قابلیتی را (ادراک و توانایی احساس) به مدلهای امروزی نسبت دهیم که ادراک ندارند. این سیستمها از انواع مبادلات موجود در میلیونها جمله تقلید میکنند و میتوانند هر موضوع خارقالعادهای را مطرح کنند.»
گابریل گفت: «صدها محقق و مهندس با LaMDA صحبت کردهاند و ما ندیدیم که شخص دیگری ادعاهای این چنینی را مطرح کند، یا مانند بلیک، LaMDA را انسانسازی کند.»
واشنگتن پست در این رابطه با یک استاد زبان شناسی مصاحبه کرد. امیلی ام. بندر (Emily M. Bender)، استاد دانشگاه واشنگتن توضیح داد که نمیتوان پاسخهای نوشتاری متقاعدکننده را با توانایی ادراک، یکسان دانست.
بلیک لموین گفته است که علیرغم نگرانیهایش، قصد دارد در آینده به کار روی هوش مصنوعی ادامه دهد. او در توییتی نوشت: «قصد من این است که در هوش مصنوعی بمانم، چه گوگل مرا نگه دارد یا نه.»
صرفنظر از درست بودن ادعای گوگل یا بلیک لموین، مسئله این است که دستیابی هوش مصنوعی به ادراک و عواطف، اجتنابناپذیر است. هوش مصنوعی تا چند سال آینده، تا اندازهای توسعه مییابد که تشخیص تفاوت آن با هوش انسانی بسیار سخت خواهد بود.
چند روز قبل بود که خبری درباره ساخت انگشت رباتیک با روکشی از پوست زنده منتشر شد. تصور کنید که هوش مصنوعی در ترکیب با چنین رباتهای انساننمایی، چه قابلیتها و تواناییهایی خواهد داشت. تواناییهای هوش مصنوعی در همین حد و اندازههای امروزی هم برای بسیاری از ما قابل درک نیست. بعید نیست که تا چند سال آینده، همهچیز شکل و شمایلی شبیه به فیلم «Transcendence» به خود بگیرد و انسان حتی بتواند مغز خود را برای همیشه در ماشین زنده نگه دارد.
بدیهی است که در بسیاری از تکنولوژیهای امروزی، از هوش مصنوعی استفاده میشود؛ اما عموم مردم از محدوده دسترسی آنها بی اطلاعند. نظر شما درباره ادراک هوش مصنوعی چیست؟ آیا آیندهای ترسناک را برای آن تصور میکنید؟ یا اینکه اگر ترس را کنار بگذارید، میتوانید کاربردها و قابلیتهای واقعی آن را ببینید؟
بیشتر بخوانید:
- گوگل از هوش مصنوعی Imagen برای تبدیل متن به عکس رونمایی کرد
- هوش مصنوعی GauGAN2 انویدیا به طور ترسناکی هرچه بنویسید را به تصویر میکشد
منبع: theverge