کد خبر: 122595

اختصاصی شبکه علمی ثریا

هوش مصنوعی گوگل و ترس‌هایی که زندگی ما را تهدید می‌کند

دانشیار فلسفه در کالج علوم اجتماعی و علوم‌انسانی نورث ایسترن گفت: من به نوعی با نگرانی درباره هوش مصنوعی موافقم. ما به اندازه کافی در مورد نکات اخلاقی پیرامون هوش مصنوعی فکر نمی‌کنیم.

اختصاصی شبکه علمی ثریا- از دستیارهای مجازی مانند سیری اپل و الکسای آمازون، تا جاروبرقی های روباتیک و خودروهای خودران، تا مدیران سبد سرمایه گذاری خودکار و ربات های بازاریابی، هوش مصنوعی به بخش بزرگی از زندگی روزمره ما تبدیل شده است. با این حال، با فکر کردن به هوش مصنوعی، بسیاری از ما ربات‌هایی شبیه انسان را تصور می‌کنیم که بر اساس داستان‌های علمی تخیلی بی‌شماری، روزی مستقل می‌شوند و شورش می‌کنند. جان باسل، دانشیار فلسفه در کالج علوم اجتماعی و علوم انسانی نورث ایسترن، که تحقیقاتش بر روی اخلاق فناوری‌های نوظهور مانند هوش مصنوعی و زیست‌شناسی مصنوعی متمرکز است، گفت: با این حال، هیچ کس نمی‌داند که انسان‌ها چه زمانی یک هوش مصنوعی هوشمند یا باهوش اختراع می‌کنند.

 

بیشتر بخوانید: هواپیمای تمام الکتریک ناسا که با باتری لپ‌تاپ کار می‌کند

 

شاید به همین دلیل است که ماجرای اخیر واشنگتن پست سروصدای زیادی به پا کرده است. در این ماجرا، مهندس گوگل، بلیک لمواین، می‌گوید که ژنراتور چت بات با هوشمندی مصنوعی این شرکت، LaMDA، که با او مکالمات عمیق متعددی داشت،مانند یک کودک هفت هشت ساله عمل می‌کند و احساساتی شبیه آن را دارد! با این حال، او معتقد است که شواهد ذکر شده در مقاله واشنگتن پست برای نتیجه گیری این‌که LaMDA تا این حد حساس است کافی نیست. وی ادامه داد: به نظر می رسد شواهد ،مبتنی بر توانایی های زبانی LaMDA و چیزهایی است که در مورد آنها صحبت می کند. با این حال، LaMDA، یک مدل زبان، به طور خاص برای صحبت طراحی شده است، و تابع بهینه سازی مورد استفاده برای آموزش پردازش زبان و مکالمه، الگوریتم آن را برای تولید این شواهد زبانی تشویق می ‌کند.این واقعیت که این مدل زبان می تواند انسان را فریب دهد تا فکر کند که هوشیار است، پیچیدگی آن را نشان می دهد، اما باید ظرفیت های دیگری فراتر از آنچه برای نشان دادن احساسات بهینه شده است داشته باشد.

 

 

تعاریف مختلفی از احساس وجود دارد. احساس به عنوان توانایی درک یا احساس چیزها تعریف می شود و اغلب با خردمند مقایسه می شود. باسل معتقد است که هوش مصنوعی یک هوشیاری حداقلی است. او می تواند از تجربه ای که دارد آگاه باشد، نگرش های مثبت یا منفی مانند احساس درد یا تمایل به عدم احساس درد داشته باشد و خواسته هایی داشته باشد. او گفت: «ما چنین طیفی از ظرفیت ها را در دنیای حیوانات هم می بینیم.به نظر می رسد که این هوش مصنوعی یک زندگی ذهنی درونی را دنبال می کند.یعنی او در مورد عوامل بیرونی مانند تغییرات آب و هوایی احساسات نشان نمی‌دهد. از صحبت‌های  واشنگتن پست مشخص نیست که چرا Lemoine LaMDA را با یک کودک مقایسه می کند. باسل گفت، ممکن است منظور او این باشد که مدل زبان او به اندازه یک کودک کوچک هوشمند است یا این که مانند یک کودک کوچک ظرفیت بیان رنج یا آرزو را دارد.

بیشتر بخوانید: کار شگفت‌انگیز هر ربات با یک کمک کوچک

 

باسل گفت: "اینها می توانند چیزهای متنوعی باشند. ما می توانیم یک هوش مصنوعی متفکر ایجاد کنیم که هیچ احساسی نداشته باشد، و ما می توانیم هوش مصنوعی احساسی ایجاد کنیم که واقعاً در تفکر عالی نیست." به گفته باسل، اکثر محققان در جامعه هوش مصنوعی، که متشکل از متخصصان یادگیری ماشین، متخصصان هوش مصنوعی، فیلسوفان، علمای اخلاق فناوری و دانشمندان علوم شناختی هستند، در حال فکر کردن به این مسائل آینده دور هستند و نگران بخش تفکر هستند. او گفت: "اگر ما یک هوش مصنوعی فوق هوشمند ایجاد کنیم، ممکن است همه ما را بکشد." با این حال، نگرانی Lemoine در مورد آن نیست، بلکه در مورد تعهد به رفتار متفاوت با قابلیت‌های هوش مصنوعی است که به سرعت در حال تغییر هستند.

 

باسل گفت: "من به نوعی با این نوع نگرانی موافقم. ما به اندازه کافی در مورد چیزهای اخلاقی در مورد هوش مصنوعی فکر نمی کنیم، مثلاً چه چیزی ممکن است به یک هوش مصنوعی باهوش بدهیم؟" او فکر می‌کند که انسان‌ها به احتمال زیاد با هوش مصنوعی بدرفتاری می‌کنند، زیرا معتقدند که آن هوش مصنوعی است و اهمیتی نمی‌دهد. باسل گفت: ما خیلی با آن چیزها هماهنگ نیستیم. هیچ مدل خوبی برای دانستن اینکه چه زمانی هوش مصنوعی به احساس رسیده است وجود ندارد. اگر LaMDA گوگل توانایی بیان قانع کننده احساسات خود را نداشته باشد، چه می شود، زیرا فقط می تواند از طریق یک پنجره چت به جای چیز دیگری صحبت کند؟ او گفت: «اینطور نیست که بتوانیم اسکن مغزی انجام دهیم تا ببینیم شبیه ما است یا خیر.

  بیشتر بخوانید: ژاپن چطور به سرعت عجیب اینترنت رسید؟

 

رشته فکری دیگر این است که هوش مصنوعی ممکن است به طور کلی به دلیل محدودیت های فیزیکی جهان یا درک محدود از آگاهی غیرممکن باشد. باسل گفت: در حال حاضر، هیچ یک از شرکت‌هایی که روی هوش مصنوعی کار می‌کنند، از جمله شرکت‌های بزرگی مانند گوگل، متا، مایکروسافت، اپل و سازمان‌های دولتی، هدف صریحی از ایجاد هوش مصنوعی حساس ندارند. به گفته IBM، برخی سازمان ها علاقه مند به توسعه AGI یا هوش عمومی مصنوعی هستند، شکلی نظری از AI که در آن یک ماشین، مانند انسان هوشمند، توانایی حل طیف وسیعی از مشکلات، یادگیری و برنامه ریزی برای آینده را داشته باشد.

 

بیشتر بخوانید: خبر خوش برای کسانی که مشکل شارژر دارند

 

باسل با اشاره به هوش مصنوعی خود گفت: «فکر می‌کنم درس واقعی این است که ما زیرساخت‌های مورد نیازمان را نداریم. زیرساختی پیرامون مسائل هوش مصنوعی می‌تواند بر اساس شفافیت، اشتراک‌گذاری اطلاعات با سازمان‌های دولتی و یا عمومی، و مقررات تحقیقاتی ایجاد شود. بازل از یک کمیته بین رشته ای حمایت می کند که به ایجاد چنین زیرساختی کمک می کند و کمیته دومی که بر فناورانی که روی هوش مصنوعی کار می کنند نظارت می کند و پیشنهادات و نتایج تحقیقات را ارزیابی می کند.

مرتبط ها