معرفی سیزده هوش مصنوعی تولید و پردازش تصویر: خلق از حروف ساده
امروزه و با توسعه هوش مصنوعی ابزار پردازش تصویر بسیاری برای تبدیل متن به تصویر…
۳۰ آبان ۱۴۰۳
۲۸ تیر ۱۴۰۲
زمان مطالعه : ۵ دقیقه
در اولین نشست شورای امنیت سازمان ملل پیرامون تهدید هوش مصنوعی برای صلح و ثبات جهانی که روز سهشنبه (۱۸ جولای) به میزبانی انگلستان برگذار شد، نمایندگان کشورهای مختلف بر لزوم ایجاد یک نهاد قانونگذار بینالمللی و ممنوعیت استفاده از این ابزارها در تجهیزات نظامی و ارتش تاکید کردند.
به گزارش پیوست، روز گذشته دیپلماتها و متخصصان حوزه هوش مصنوعی خطرات و تهدیدها و البته فواید و مزایای علمی این تکنولوژی را برای شورای امنیت سازمان ملل شرح دادند. با وجود تاکید اکثریت شورا بر تهدید این تکنولوژی برای صلح و ثبات بینالملل، روسیه معتقد است هنوز به اندازه کافی برای تهدید شمردن AI اطلاعات نداریم.
ژانگ جون، سفیر چین در سازمان ملل، نیز پس از مخالفت با پیشنهاد ایجاد قوانین بینالمللی برای هوش مصنوعی گفت نهادهای رگولاتوری جهان باید به کشورها اجازه دهند تا قوانین خود را برای این تکنولوژی ایجاد کنند.
جون، سفیر چین در سازمان ملل متحد با «شمشیر دولبه» خواندن هوش مصنوعی گفت:« پکن از نقش هماهنگکننده مرکزی سازمان ملل جهت ایجاد اصول راهنما برای هوش مصنوعی حمایت میکند.»
سفیر چین، خوب یا بد بودن هوش مصنوعی را وابسته به چگونگی استفاده مردم از آن، تنظیم این فناوی و توسعه علمی آن مطابق با استانداردهای امنیتی دانست.
وی در نهایت با بیان این که باید تمرکز بر استفاده خوب مردم از این فناوری و توسعه و تنظیم آن قرار بگیرد گفت که باید از تبدیل این فناوری به اسب فراری جلوگیری شود.
آنتونی گوترش، دبیرکل سازمان ملل، در این نشست با اشاره به نقش هوش مصنوعی در هموار کردن راه تبهکاران، تروریستها و دیگر اخلالگران گفت سازمان ملل باید به عنوان یک نهاد جهانی همانگونه که بر هوانوردی، اقلیم و انرژی هستهای نظارت دارد، مقرراتی را برای هوش مصنوعی نیز تنظیم کرده و بر اجرای آن نظارت داشته باشد.
گوترش در این نشست اشاره کرد که کاربردهای نظامی و غیرنظامی هوش مصنوعی میتواند عواقب جدیای را متوجه صلح و امنیت جهانی کند. دبیر کل سازمان ملل متحد همچنین از درخواست برخی کشورها برای تشکیل یک سازمان بینالمللی جهت «حمایت از تلاشهای جمعی برای اداره و کنترل هوش مصنوعی» حمایت کرد.
پیشنهاد اکثریت اعضا برای ایجاد یک نهاد بینالملل با نظر چهرههای مطرح تکنولوژی همسو است. بیل گیتس، بنیانگذار و مدیرعامل سابق مایکروسافت، چندی پیش در یک پست وبلاگی پیرامون هوش مصنوعی و آینده آن خواستار قانونگذاری هوش مصنوعی توسط یک نهاد بینالمللی شبیه آژانس انرژی اتمی شده بود.
براساس پیشنهاد مطرح شده این آژانس باید از متخصصانی تشکیل شود که دانستههای خود را با دولتها و آژانسهای دولتی که شاید بینش چندانی در رابطه با تهدیدهای هوش مصنوعی نداشته باشند در میان بگذارند.
جیمز کلورلی، وزیر امور خارجه بریتانیا، که میزبانی این نشست را برعهده داشت گفت: «هیچ کشوری از هوش مصنوعی در امان نیست، درنتیجه ما باید بزرگترین ائتلاف فعالان بینالمللی از تمامی بخشها را دخیل و درگیر کنیم.»
با این حال روسیه و چین هردو با رویکرد شورا در رابطه این تکنولوژی جدید مخالفند. از نگاه روسیه ما هنوز به اندازه کافی درمورد تهدیدهای هوش مصنوعی اطلاعات نداریم که آن را مخل صلح و ثبات جهانی بنامیم.
فرستاده چین هم علی رغم اشاره به مخالفت کشورش با استفاده از هوش مصنوعی به عنوان «ابزاری برای برتری نظامی یا آسیب به استقلال یک کشور»، گفت کشورهای باید استقلال کافی را برای قانونگذاری مستقل داشته باشند.
معاون سفیر ایالات متحده در این نشست اظهار کرد: «لازم است تا کشورها برای مقابله و کمتر کردن خطرات هوش مصنوعی و سایر فنارویهای نوظهور که حقوق بشر، صلح و امنیت جهانی را تهدید میکند با هم همکاری کنند. او خطاب به شورا گفت: «هیچ کشور عضوی نباید از هوش مصنوعی برای سانسور، محدود کردن، سرکوب و ناتوان کردن مردم استفاده کند.»
نماینده روسیه این سوال را مطرح کرد که آیا این شورا که مسئول حفظ صلح و امنیت بینالمللی است، باید در مورد هوش مصنوعی بحث کند یا نه؟ معاون سفیر روسیه گفت:« آنچه ضروری است یک بحث حرفهای، علمی و مبتنی بر تخصص است که قابلیت این را دارد که چندین سال طول بکشد و در حال حاضر این بحث در بسترهای تخصصی در حال انجام است.»
در این نشست پیرامون استفاده از هوش مصنوعی در فعالیتهای نظامی و بکارگیری سلاحهای خودکار در میدان جنگ و یا ترور به ترور محسن فخری زاده، دانشمند هستهای ایران، توسط اسرائیل اشاره شد. در ترور فخریزاده اسرائیل از روبات هوش مصنوعی تحت کنترل ماهواره استفاده کرده بود.
گوترش در همین رابطه گفت، سازمان ملل متحد باید تا سال ۲۰۲۶ به یک توافق لازمالاجرای قانونی در راستای ممنوعیت استفاده از هوش مصنوعی در سلاحهای خودکار جنگی دست پیدا کند.
محققان معتقدند که یکی از موضوعات مهم دیگر بار مسئولیتی است که سازندگان یک ابزار هوش مصنوعی باید به دوش بکشند. ربکا ویلت، رئیس بخش هوش مصنوعی موسسه علوم داده دانشگاه شیکاگو، میگوید نباید انسانهای پشت پرده را فراموش کنیم و آنها باید جوابگوی سیستمی که طراحی میکنند باشند.