اختصاصی شبکه علمی ثریا- از دستیارهای مجازی مانند سیری اپل و الکسای آمازون، تا جاروبرقی های روباتیک و خودروهای خودران، تا مدیران سبد سرمایه گذاری خودکار و ربات های بازاریابی، هوش مصنوعی به بخش بزرگی از زندگی روزمره ما تبدیل شده است. با این حال، با فکر کردن به هوش مصنوعی، بسیاری از ما رباتهایی شبیه انسان را تصور میکنیم که بر اساس داستانهای علمی تخیلی بیشماری، روزی مستقل میشوند و شورش میکنند. جان باسل، دانشیار فلسفه در کالج علوم اجتماعی و علوم انسانی نورث ایسترن، که تحقیقاتش بر روی اخلاق فناوریهای نوظهور مانند هوش مصنوعی و زیستشناسی مصنوعی متمرکز است، گفت: با این حال، هیچ کس نمیداند که انسانها چه زمانی یک هوش مصنوعی هوشمند یا باهوش اختراع میکنند.
بیشتر بخوانید: هواپیمای تمام الکتریک ناسا که با باتری لپتاپ کار میکند
شاید به همین دلیل است که ماجرای اخیر واشنگتن پست سروصدای زیادی به پا کرده است. در این ماجرا، مهندس گوگل، بلیک لمواین، میگوید که ژنراتور چت بات با هوشمندی مصنوعی این شرکت، LaMDA، که با او مکالمات عمیق متعددی داشت،مانند یک کودک هفت هشت ساله عمل میکند و احساساتی شبیه آن را دارد! با این حال، او معتقد است که شواهد ذکر شده در مقاله واشنگتن پست برای نتیجه گیری اینکه LaMDA تا این حد حساس است کافی نیست. وی ادامه داد: به نظر می رسد شواهد ،مبتنی بر توانایی های زبانی LaMDA و چیزهایی است که در مورد آنها صحبت می کند. با این حال، LaMDA، یک مدل زبان، به طور خاص برای صحبت طراحی شده است، و تابع بهینه سازی مورد استفاده برای آموزش پردازش زبان و مکالمه، الگوریتم آن را برای تولید این شواهد زبانی تشویق می کند.این واقعیت که این مدل زبان می تواند انسان را فریب دهد تا فکر کند که هوشیار است، پیچیدگی آن را نشان می دهد، اما باید ظرفیت های دیگری فراتر از آنچه برای نشان دادن احساسات بهینه شده است داشته باشد.
تعاریف مختلفی از احساس وجود دارد. احساس به عنوان توانایی درک یا احساس چیزها تعریف می شود و اغلب با خردمند مقایسه می شود. باسل معتقد است که هوش مصنوعی یک هوشیاری حداقلی است. او می تواند از تجربه ای که دارد آگاه باشد، نگرش های مثبت یا منفی مانند احساس درد یا تمایل به عدم احساس درد داشته باشد و خواسته هایی داشته باشد. او گفت: «ما چنین طیفی از ظرفیت ها را در دنیای حیوانات هم می بینیم.به نظر می رسد که این هوش مصنوعی یک زندگی ذهنی درونی را دنبال می کند.یعنی او در مورد عوامل بیرونی مانند تغییرات آب و هوایی احساسات نشان نمیدهد. از صحبتهای واشنگتن پست مشخص نیست که چرا Lemoine LaMDA را با یک کودک مقایسه می کند. باسل گفت، ممکن است منظور او این باشد که مدل زبان او به اندازه یک کودک کوچک هوشمند است یا این که مانند یک کودک کوچک ظرفیت بیان رنج یا آرزو را دارد.
بیشتر بخوانید: کار شگفتانگیز هر ربات با یک کمک کوچک
باسل گفت: "اینها می توانند چیزهای متنوعی باشند. ما می توانیم یک هوش مصنوعی متفکر ایجاد کنیم که هیچ احساسی نداشته باشد، و ما می توانیم هوش مصنوعی احساسی ایجاد کنیم که واقعاً در تفکر عالی نیست." به گفته باسل، اکثر محققان در جامعه هوش مصنوعی، که متشکل از متخصصان یادگیری ماشین، متخصصان هوش مصنوعی، فیلسوفان، علمای اخلاق فناوری و دانشمندان علوم شناختی هستند، در حال فکر کردن به این مسائل آینده دور هستند و نگران بخش تفکر هستند. او گفت: "اگر ما یک هوش مصنوعی فوق هوشمند ایجاد کنیم، ممکن است همه ما را بکشد." با این حال، نگرانی Lemoine در مورد آن نیست، بلکه در مورد تعهد به رفتار متفاوت با قابلیتهای هوش مصنوعی است که به سرعت در حال تغییر هستند.
باسل گفت: "من به نوعی با این نوع نگرانی موافقم. ما به اندازه کافی در مورد چیزهای اخلاقی در مورد هوش مصنوعی فکر نمی کنیم، مثلاً چه چیزی ممکن است به یک هوش مصنوعی باهوش بدهیم؟" او فکر میکند که انسانها به احتمال زیاد با هوش مصنوعی بدرفتاری میکنند، زیرا معتقدند که آن هوش مصنوعی است و اهمیتی نمیدهد. باسل گفت: ما خیلی با آن چیزها هماهنگ نیستیم. هیچ مدل خوبی برای دانستن اینکه چه زمانی هوش مصنوعی به احساس رسیده است وجود ندارد. اگر LaMDA گوگل توانایی بیان قانع کننده احساسات خود را نداشته باشد، چه می شود، زیرا فقط می تواند از طریق یک پنجره چت به جای چیز دیگری صحبت کند؟ او گفت: «اینطور نیست که بتوانیم اسکن مغزی انجام دهیم تا ببینیم شبیه ما است یا خیر.
بیشتر بخوانید: ژاپن چطور به سرعت عجیب اینترنت رسید؟
رشته فکری دیگر این است که هوش مصنوعی ممکن است به طور کلی به دلیل محدودیت های فیزیکی جهان یا درک محدود از آگاهی غیرممکن باشد. باسل گفت: در حال حاضر، هیچ یک از شرکتهایی که روی هوش مصنوعی کار میکنند، از جمله شرکتهای بزرگی مانند گوگل، متا، مایکروسافت، اپل و سازمانهای دولتی، هدف صریحی از ایجاد هوش مصنوعی حساس ندارند. به گفته IBM، برخی سازمان ها علاقه مند به توسعه AGI یا هوش عمومی مصنوعی هستند، شکلی نظری از AI که در آن یک ماشین، مانند انسان هوشمند، توانایی حل طیف وسیعی از مشکلات، یادگیری و برنامه ریزی برای آینده را داشته باشد.
بیشتر بخوانید: خبر خوش برای کسانی که مشکل شارژر دارند
باسل با اشاره به هوش مصنوعی خود گفت: «فکر میکنم درس واقعی این است که ما زیرساختهای مورد نیازمان را نداریم. زیرساختی پیرامون مسائل هوش مصنوعی میتواند بر اساس شفافیت، اشتراکگذاری اطلاعات با سازمانهای دولتی و یا عمومی، و مقررات تحقیقاتی ایجاد شود. بازل از یک کمیته بین رشته ای حمایت می کند که به ایجاد چنین زیرساختی کمک می کند و کمیته دومی که بر فناورانی که روی هوش مصنوعی کار می کنند نظارت می کند و پیشنهادات و نتایج تحقیقات را ارزیابی می کند.