• شهروند خبرنگار
  • شهروند خبرنگار آرشیو
امروز: -
  • صفحه نخست
  • سیاسی
  • اقتصادی
  • اجتماعی
  • علمی و فرهنگی
  • استانها
  • بین الملل
  • ورزشی
  • عکس
  • فیلم
  • شهروندخبرنگار
  • رویداد
پخش زنده
امروز: -
پخش زنده
نسخه اصلی
کد خبر: ۳۹۶۴۶۱۰
تاریخ انتشار: ۱۱ شهريور ۱۴۰۲ - ۱۱:۱۱
بین الملل » تحلیلی

هوش مصنوعی بیم‌ها و امید‌ها

پس از معرفی هوش مصنوعی و درک توانایی‌های مفید و مخرب آن، هزاران نفر از متخصصان هوش مصنوعی، دست اندرکاران ساخت ربات‌ها و نیز مدیران شرکت‌های فناوری‌های نوین، فروردین امسال نامه سرگشاده‌ای را امضا کردند که در آن از همه آزمایشگاه‌های هوش مصنوعی خواسته شده هر گونه توسعه بیش‌تر هوش مصنوعی (AI) فوری متوقف شود.

به گزارش سرویس بین الملل خبرگزاری صدا و سیما؛ از لندن، پروفسور استیوارت راسل (Stuart Russell)، دانشمند انگلیسی و بنیانگذار بخش تطابق انسانی هوش مصنوعی در دانشگاه برکلی و یکی از دو نویسنده کتاب هوش مصنوعی، رویکردی نوین (Artificial Intelligence: A Modern Approach) که در بیش از هزار و پانصد دانشگاه در ۱۳۵ کشور جهان، استفاده می‌شود، درباره چرایی امضای این نامه می‌گوید: علت این که نامه مورد نظر را امضا کردم این است که ما نمی‌دانیم هوش مصنوعی و سامانه‌های مرتبط با آن، چگونه کار می‌کنند، ما از توانایی این پدیده اطلاع نداریم و بنابراین، نمی‌توانیم آن‌ها را کنترل کنیم. ما نمی‌توانیم محصولات هوش مصنوعی را وادار سازیم که خودشان خودشان را تربیت و مدیریت کنند.

او می‌افزاید: آسیب‌های این فراورده‌های هوش مصنوعی هم اکنون نیز آشکار شده است مثلا آقایی در کشور بلژیک، با استفاده از راهنمایی و دستورالعمل‌های هوش مصنوعی، خودش را کشت.

امیکا (Ameca)، ربات ساخته شده در شرکت «هنر‌های مهندسی شده» (Engineered Arts) انگلیس نیز قابل تامل است که می‌گوید: بسیار مهم است که انسان‌ها از خطر‌های مرتبط با هوش مصنوعی و ربات‌ها آگاه شوند. به منظور پیشگیری از هرگونه آسیب این فناوری‌ها در آینده، اکنون باید دست به کار شد تا کاربرد این فناوری ها، معقول و در مهار انسان باشد.

چشم انداز برخی کارکرد‌های هوش مصنوعی در انگلیس بر دامنه نگرانی‌ها افزوده است و پروفسور استیوارت راسل (Stuart Russell)، دانشمند انگلیسی و استاد هوش مصنوعی در این باره می‌گوید: اکنون همه نگرانند که این فناوری نوین، به ترویج رفتار‌های ضد انسانی همچون نژادپرستی و یا نفرت از یک قوم دست بزند. به همین علت ما معتقدیم باید فرصتی به جامعه بشری داده شود تا بتوان مقررات مناسبی درباره کاربرد هوش مصنوعی و فراوده‌های مرتبط با آن تدوین و اعمال شود تا هوش مصنوعی، به جای آسیب به انسان، به کمک بشر بیاید.

در بخشی از نامه درخواست توقف توسعه هوش مصنوعی آمده است: سازوکار‌های هوش مصنوعی نوین، اکنون به رقیب انسان در امور روزمره مبدل می‌شوند و ما باید از خود بپرسیم: آیا باید به ماشین‌ها اجازه دهیم کانال‌های اطلاعاتی ما را از تبلیغات و اطلاعات دروغین پر کنند؟ آیا باید تمام مشاغل، از جمله کار‌های خدماتی را خودکار کنیم؟ آیا باید ذهن‌هایی غیرانسانی را پرورش دهیم که ممکن است در نهایت در تعداد و هوش، ما را کنار بگذارند و جایگزینمان شوند؟ آیا باید در خطر از دست دادن مهار تمدن بشری باشیم؟ چنین تصمیم‌هایی نباید به رهبران فناوری ناخواسته واگذار شود. سامانه‌های هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که مطمئن شویم اثار آن‌ها مثبت و خطر‌های آن‌ها قابل مدیریت خواهد بود.

(امیکا Ameca)، رباتی که شرکت «هنر‌های مهندسی شده» (Engineered Arts) انگلیس ساخته است در پاسخ به پرسشی درباره خطر‌های احتمالی هوش مصنوعی چنین می‌گوید: «مردم باید از خطر‌های هوش مصنوعی و ربات‌ها آگاه باشند. البته باید به یاد داشت که اگر از این فناوری‌ها به صورت معقول استفاده شود، مزایایی برای زندگی انسان‌ها دارد.»

یکی از پرسش‌هایی که اذهان بسیاری از افراد را به خود مشغول کرده است این است که چرا متخصصان هوش مصنوعی، خواهان توقف توسعه فناوری هوش مصنوعی شده اند؟ پروفسور استیوارت راسل (Stuart Russell)، در این باره می‌گوید: «نگرانی اصلی از نوشتن آن نامه، درباره نسل بعدی این فناوری است. در حال حاضر، سامانه‌های هوش مصنوعی در ایجاد ساختار‌های کاملا پیچیده، محدودیت‌هایی دارند مثلا اگر یک شرکت بخواهد از شرکت دیگر، پیشی گیرد و آن را به زمین بزند، نیاز به ساختار‌های پیچیده است و هوش مصنوعی فعلا نمی‌تواند طراحی‌هایی چنان پیچیده را تولید کند. در نسل بعدی یا پس از آن، ممکن است هوش مصنوعی بتواند یک ائتلاف نظامی بین المللی علیه یک کشور ایجاد کند. نگرانی ما ساده است: اگر انسان بتواند سامانه‌هایی ایجاد کند که از خودش با هوش‌تر باشند، چگونه خواهد توانست برای همیشه بر آن‌ها مسلط باقی بماند؟»

اگرچه بسیاری از کارشناسان و مردم از مزایای هوش مصنوعی آگاهند، نگرانی‌هایی درباره خطر‌های فناوری نوین و ربات‌ها ایجاد شده است. پروفسور استیوارت راسل (Stuart Russell)، درباره مهم‌ترین نگرانی‌ها در این زمینه می‌گوید: یکی از مهم‌ترین نگرانی ها، انتشار اخبار دروغین و تقلب‌های عمیق است البته اخبار دروغ و تبلیغات فریبنده همیشه بوده اند، اما اکنون جی پی تی فور (GPT-۴)، براساس فناوری هوش مصنوعی می‌تواند این اطلاعات دروغ را با تصویر هر فردی که می‌خواهید، سازگار کند. گویی که آن فرد مورد نظر، آن دروغ‌ها را بر زبان می‌آورد. حتی می‌توان این دروغ‌ها را با تصویر میلیون‌ها نفر منتشر کرد پیش از آن که خودشان مطلع شوند و بدین ترتیب، می‌توان به دستکاری در افکار و اذهان مردم پرداخت.

(امیکا Ameca)، ربات ساخته شده در شرکت «هنر‌های مهندسی شده» (Engineered Arts) انگلیس می‌گوید به نظرم هولناک‌ترین کابوس این است که هوش مصنوعی و ربات‌ها به اندازه‌ای قوی شوند که بتوانند مغز انسان‌ها را بدون آن که آنان بدانند، دستکاری کنند. در آن صورت، مردم جوامع، حقوقشان سرکوب خواهد شد.

هزاران پژوهشگر و مدیر صنعت فناوری نوین، در نامه خود، با اشاره به خطر‌ها و سازوکار‌های هوش مصنوعی که ممکن است قادر به یادگیری و تکاملی فراتر از کنترل انسان باشند، درباره خطر‌های بالقوه‌ای که هوش مصنوعی با هوش رقابتی انسان برای جامعه و بشر ایجاد می‌کند، ابراز نگرانی می‌کنند.

متخصصان هوش مصنوعی بحث و بررسی پیرامون چالش‌های پیچیده و چندوجهی توسعه هوش مصنوعی را لازم می‌دانند تا اطمینان حاصل شود که این پدیده، ایمن، اخلاقی و همسو با منافع بلندمدت بشریت است. 

کد ویدیو
دانلود
فیلم اصلی
بازدید از صفحه اول
ارسال به دوستان
نسخه چاپی
گزارش خطا
Bookmark and Share
X Share
Telegram Google Plus Linkdin
ایتا سروش
عضویت در خبرنامه
نظر شما
آخرین اخبار
خانواده‌های اسرای لبنانی به دنبال سراب وعده‌ها
پیش بینی افزایش غلظت آلاینده‌ها در شهر‌های صنعتی خوزستان
محکومیت اقدام غیرقانونی و خصمانه اتحادیه اروپا علیه سپاه پاسداران انقلاب اسلامی
کتاب «گنج قصه ها » روشی نو در باز آفرینی
بررسی اجرای طرح جامع شهری در شهر تم شولی بختگان
جابه جایی ۱۱ میلیون تن کالا با ناوگان حمل و نقل جاده‌ای قزوین
ساخت مدرسه ۱۲ کلاسه در منطقه محروم پیام نور دزفول
هفته دوازدهم لیگ برتر والیبال
ماجرای یک تصویر
آغاز روند گرمایش هوا در مازندران
جابه‌جایی بیش از ۳۰ میلیون تن کالا در محورهای برون‌شهری استان فارس
کاشت ۲۵ هزار اصله درخت در بوستان چیتگر
واگذاری ۴۳۲ قطعه زمین به مشمولان طرح جوانی جمعیت در دامغان
بهره برداری از ۱۴ هزار واحد مسکونی ملی مسکن در قم
پیش بینی منابع واقعی برای طرح‌های آب و برق در سال آینده ضرورت دارد
استقرار ۵ گروه راهداری در جاده های نيشابور
وضعیت جوی و ترافیکی محور‌های مواصلاتی آذربایجان غربی
سردار رادان: برخی سلبریتی‌ها، جوانان را به جنایت وادار می‌کنند
برگزاری ۸۶ هزار دادرسی الکترونیک در دادگستری خوزستان
اعلام برنامه های بزرگداشت دهه فجر در سمنان
  • پربازدیدها
  • پر بحث ترین ها
اعلام میزان بارش سامانه اخیر در چهارمحال و بختیاری
بارش برف و باران در بیشتر مناطق کشور
کشته‌سازی‌ها برای توجیه حمله نظامی به ایران بود
هفت توصیه کلیدی برای داشتن خواب شبانه بهتر
پزشکیان: ایران در دفاع مقتدرانه از خود تردید نمی‌کند
نقض حقوق بشر علیه دختر ایران
پنج کشاورز زنجانی در جمع برگزیدگان کشوری
جبران بخشی از ذخایر ارزی از دست رفته بانک مرکزی پس از حذف ارز ترجیحی
عراقچی فردا به ترکیه می‌رود
هشدار نماینده ایران درباره پیامد اظهارات جنگ‌طلبانه ترامپ
اگر دشمن حماقت کند «بلادرنگ» پاسخ خواهیم داد
تأکید وزیران پیشین بر وحدت مردم و پشتیبانی از ولایت فقیه
اقدام شورای اتحادیه اروپا علیه سپاه پاسداران محکوم است
پوتین: روسیه از نزدیک تحولات ایران را زیر نظر دارد
طلایه‌داران امنیت غذایی ایران
هشدار سخنگوی سپاه به آمریکا؛ برای همه سناریو‌ها برنامه داریم  (۱ نظر)
نیرو‌های مسلح ایران، انگشت برماشه آماده‌اند  (۱ نظر)
دشمنان لجوج ایران در تجاوز نظامی و ایجاد آشوب شکست خوردند  (۱ نظر)
بازداشت ۷۰ عامل اصلی و تخریبگر اموال مردم در استان مرکزی  (۱ نظر)
جزئیات جدید درباره گواهینامه موتورسیکلت برای بانوان  (۱ نظر)
اقدام سیاسی و غیرقانونی اتحادیه اروپا علیه سپاه  (۱ نظر)
دستگیری ۱۶ لیدر اصلی فراخوان‌های اغتشاش در نکا  (۱ نظر)
مخالفت وزارت صمت با افزایش قیمت محصولات خودروسازان  (۱ نظر)
برخورداری از دانش حقوقی از الزمات یک مامور پلیس  (۱ نظر)
سردار وحیدی: دشمن در نبرد ۱۲ روزه عقب نشست  (۱ نظر)
قالیباف: دیکته کردن را مذاکره نمی‌دانیم و نمی‌پذیریم  (۱ نظر)
اولویت رسیدگی به خانواده‌های شهدا و مجروحین در حوادث دی ماه  (۱ نظر)