پیامدهای منفی همکاری ربات با انسان
تاریخ انتشار: ۱ اسفند ۱۴۰۱ | کد خبر: ۳۷۱۵۸۲۲۱
اگرچه رباتها به سرعت در حال پیشرفت کردن هستند و پیشبینی میشود که به زودی به همکار انسانها تبدیل شوند، اما این کار علاوه بر جنبههای مثبت، پیامدهای منفی را نیز به همراه خواهد داشت.
ربات اطلس شرکت بوستون داینامیکس امسال ۱۰ ساله میشود. اطلس که در وبسایت شرکت به عنوان یک پلتفرم طراحیشده برای برطرف کردن محدودیتهای تحرک کل بدن توصیف شده، هنوز یک پروژه تحقیقاتی به شمار میرود، اما از برخی محدودیتها خارج شده است.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
دیدن چنین مهارت و چابکی در یک ربات، غیرعادی است. این ربات میتواند به سرعت و با قدرت محض خود در یک زمینه جدید حرکت کند، اما زمانی که رباتهای ماهرتر، قویتر و سریعتر از قفس خود بیرون بیایند و به بخشی از زندگی روزمره تبدیل شوند، برای بقیه انسانها چه معنایی خواهد داشت؟ ربات در نسخهی نمایشی کنترلشده، مطمئنا دقیق به نظر میرسد، اما اگر در جهان واقعی این طور نباشد یا اگر همیشه این طور نباشد، چه اتفاقی میافتد؟
در گذشته، رباتهای قوی برای یک هدف تولید میشدند. آنها در کارخانههای تولیدکننده نگهداری میشدند یا برای اهداف صنعتی به کار میرفتند. در سالهای نه چندان دور در کارخانه تویوتا، رباتهای غولپیکری وجود داشتند که قطعات خودرو را جوش میدادند. این نوع رباتها بیحرکت هستند و برای حفظ ایمنی، در محفظههای خود نگهداری میشوند.
چندین سال پیش نیز در مورد بیرون آوردن رباتها از محفظههای آنها، توجه دقیقی وجود داشت. هنگامی که دستیار فضانورد ناسا موسوم به روبونات برای کمک کردن به فضانوردان مستقر شد، نیمتنه رباتیک آن موضوع یک سخنرانی در آزمایشگاه پیشرانش جت در شهر پاسادینا بود. در آن سخنرانی، دانشمندان و مهندسان به دقت اقدامات احتیاطی را برای پوشاندن روبونات با پوششی که میتوانست از هرگونه برخورد پیشبینینشده با انسان جلوگیری کند، توضیح دادند.
این مورد حداقل تاکنون در مورد ربات اطلس صادق نبوده است. اگر ربات در حین کار، کنترل خود را از دست بدهد، کیسه ابزار را بیش از اندازه پرتاب کند و کیسه به طور تصادفی به کارگر ساختمانی یا به سمت شخص دیگری برخورد کند، چه اتفاقی میافتد؟ اطلس در نسخه نمایشی خوب به نظر میرسید، اما هیچ کس دیگری در اطراف نبود. چه اتفاقی میافتد وقتی یک ربات یا رباتهایی مانند اطلس، در موقعیتی با بیش از یک نفر قرار بگیرند؟
هر دستیار ربات متحرک با قابلیت راه رفتن آزاد، دارای ریشههای الگوریتمی است. این برنامه توسط رمزهای رایانهای نوشته شده توسط انسان و با کمک هوش مصنوعی و یادگیری ماشینی، برنامهریزی و کنترل میشود. این بدان معناست که تصمیمهای ربات، با استفاده از منطق هوش مصنوعی گرفته میشوند. این تصمیمها با منطق انسانی یکی نیستند و همکاری واقعی را ایجاد نمیکنند. در حال حاضر، چون این رباتها در یک زمینه گروهی به نمایش گذاشته نمیشوند، مشخص نیست که این رباتها چقدر برای همکاری با انسان طراحی خواهند شد یا اینکه آیا ما انسانها همیشه تسلیم رباتهایی خواهیم بود که برای در نظر گرفتن گزینهها و انتخابهای انسانها برنامهریزی نشدهاند. رباتها ممکن است در لحظه با ما سازگار شوند.
مشکلاتی را که پیشتر با وبسایتها، دستگاههای فروش بلیت یا هر دستگاه خودکار دیگری داشتیم، در نظر بگیرید. اکنون آنها را متحرک و قوی، اما همراه با حفظ محدودیت در زمینه برقراری ارتباط و همکاری در نظر بگیرید. به احتمال زیاد، اشتباهاتی وجود خواهند داشت. به رغم همه سرگرمیهایی که مردم با چتباتهایی مانند «ChatGPT» دارند، شاهد بودهایم که چنین فناوریهایی میتوانند نتایج نادرستی را تولید کنند.
حتی در کاربردهای نظامی که رویهها و فرآیندهایی را دارا هستند، باز هم رویدادهای غیرمنتظره و پیشبینینشده وجود دارد و ناتوانی در واکنش نشان دادن با روشهای غیرمنتظره نیز میتواند کشنده باشد. تصور کنید که صدها نمونه از این رباتها در یک بیمارستان یا در یک محل ساختوساز بزرگ که در آن صدها کارگر و احتمالا هزاران کار و فرآیند وجود دارد، به عنوان نظمدهنده امور کار میکنند و همه سعی دارند در اطراف یکدیگر و انسانها حرکت کنند. واقعا چالشبرانگیز خواهد بود که ببینیم چگونه این نوع رباتهای متحرک میتوانند بدون این که دائما با یکدیگر برخورد کنند، به موفقیت دست یابند. این رباتها نه تنها با یک شخص، بلکه با بسیاری از رباتهای دیگر، ماشینها و وسایل نقلیه خودران در تعامل قرار میگیرند. این در حالی است که افرادی که آنها را احاطه کردهاند یا با آنها در تعامل هستند نیز سعی دارند وظایف خود را تکمیل کنند.
وقتی این رباتهای متحرک قوی در محیطهای کاری، آموزشی، صنعتی، نظامی یا مراقبتهای بهداشتی مستقر شوند، راهی برای برقراری ارتباط آسان با آنها نخواهیم داشت. ما یا باید رفتار خود را اصلاح کنیم تا با آنها همکاری داشته باشیم یا اینکه پیامدهای آن را متحمل شویم. همزیستی با چنین رباتهایی، یک چالش برای مردم خواهد بود که احتمالا در آینده باید با آن سازگار شوند. ربات اطلس در حال حاضر یک پروژه کاملا تحقیقاتی بین بوستون داینامیکس و «دارپا» است و هیچ برنامهای برای استقرار آن در محل ساختوساز یا هر محل دیگری در آینده وجود ندارد.
در هر حال، این کار به مرور زمان و همراه با دیگران ممکن خواهد شد. با این مفهوم، چالشهایی هم برای رباتها و هم برای انسانها وجود خواهد داشت. ما باید در نظر بگیریم که رباتها چگونه برنامهریزی شدهاند، چگونه با آنها تعامل خواهیم داشت و رباتها چه کاری ممکن است برای ما انجام دهند. منطقی است که این بحث اکنون و پیش از تنظیم مقررات توسط یک چتبات انجام شود.
منبع:فست کمپانی
باشگاه خبرنگاران جوان علمی پزشکی فناوریمنبع: باشگاه خبرنگاران
کلیدواژه: ربات هوشمند هوش مصنوعی ربات ها انسان ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.yjc.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «باشگاه خبرنگاران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۱۵۸۲۲۱ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
رباتهای قاتل؛ ترس از آینده هوش مصنوعی
ایتنا - نگرانیهایی در محافل اروپایی به دلیل توسعه سیستمهای هوش مصنوعی و میزان نفوذ آنها وجود دارد که ممکن است منجر به ظهور به اصطلاح "رباتهای قاتل" شود.
روز دوشنبه، اتریش خواستار تلاشهای جدیدی برای تنظیم قوانینی برای استفاده از هوش مصنوعی در سیستمهای تسلیحاتی شد، در حالی که میزبان کنفرانسی با عنوان «انسانیت در تقاطع: سیستمهای تسلیحات خودمختار و چالشهای مقررات» بود.
این کنفرانس با هدف احیای بحثهای متوقف شده در مورد این موضوع، یعنی توسعه هوش مصنوعی و لزوم وجود کنترلهایی برای تنظیم آن برای مهار هر گونه پیامدهای نامطلوبی که ممکن است منجر شود، برگزار میشود.
با پیشرفت سریع فناوری هوش مصنوعی، سیستمهای تسلیحاتی که میتوانند بدون دخالت انسان کشته شوند، بیشتر نمایان میشوند و چالشهای اخلاقی و قانونی را ایجاد میکنند که اکثر کشورها میگویند باید در اسرع وقت به آن رسیدگی کنند.
الکساندر شالنبرگ وزیر امور خارجه اتریش در جلسهای با حضور سازمانهای غیردولتی و بینالمللی و همچنین نمایندگانی از 143 کشور گفت: «اکنون زمان توافق بر سر قوانین بینالمللی است، استانداردهایی برای تضمین کنترل انسانی.»
وی در سخنرانی افتتاحیه خود در این کنفرانس افزود: «ما حداقل باید اطمینان حاصل کنیم که تصمیمات حیاتی در مورد اینکه چه کسی زندگی میکند و چه کسی میمیرد در دست انسانها باقی بماند، نه ماشینها».
برای سالها بحث در سازمان ملل بدون دستیابی به نتایج ملموس گذشت. بسیاری از شرکت کنندگان در کنفرانس دو روزه در وین اعلام کردند که زمان برای اقدام به سرعت در حال اتمام است.
میرجانا اسپولیاریک، رئیس کمیته بینالمللی صلیب سرخ، در جریان میزگردی در کنفرانس گفت: «بسیار مهم است که ما به سرعت اقدام کنیم.
وی افزود: آنچه امروز در زمینههای مختلف خشونت شاهد آن هستیم، شکستهای اخلاقی در برابر جامعه جهانی است.
هوش مصنوعی در حال حاضر در میدانهای جنگ استفاده میشود. دیپلماتها می گویند که پهپادهای اوکراینی به گونهای طراحی شدهاند که حتی زمانی که ارتباط بین آنها و اپراتور با استفاده از تکنیکهای پارازیت قطع شود، به مسیر خود به سمت هدف خود ادامه دهند.
ایالات متحده در این ماه اعلام کرد که در حال بررسی گزارش رسانهای است مبنی بر اینکه ارتش اسرائیل از هوش مصنوعی برای کمک به شناسایی اهداف بمباران در غزه استفاده می کند.
جان تالین، یکی از محققان، میگوید: «ما قبلاً دیدهایم که هوش مصنوعی مرتکب اشتباهات کوچک و بزرگ میشود، از تشخیص ندادن بین توپ فوتبال و سر بدون موی داور گرفته تا مرگ عابران پیاده در جادهها ناشی از اتومبیلهای خودران».
توسعهدهنده نرمافزار و سرمایهگذار فناوری، در نامهای رسمی گفت که قادر به شناسایی افرادی است که خارج از خطوط تعیینشده راه میروند.
وی افزود: باید در مورد اتکا به دقت این سامانه ها چه در بخش نظامی و چه غیرنظامی بسیار دقت کنیم.