skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

چطور نگرانی‌ها درمورد هوش مصنوعی در سال ۲۰۲۴ جای خود را به خوش‌بینی دادند

۱۳ دی ۱۴۰۳

زمان مطالعه : ۵ دقیقه

فناوران سال‌ها است که درمورد خطرات احتمالی و جدی هوش مصنوعی برای آینده بشر هشدار می‌دهند. نگرانی برخی از فعالان فناوری به اندازه‌ای بود که حتی نظریه‌های آخرالزمانی درمورد هوش مصنوعی مطرح شد و طیف دیگری نیز درمورد موضوعاتی مثل از بین بردن مشاغل و تاثیر آن بر درآمد مردم جهان هشدار داده‌اند. با این حال تک‌کرانچ در گزارشی به این مساله پرداخته است که چطور در سال ۲۰۲۴ به یک باره روایت اصلی فعالان فناوری و حتی رسانه‌ها در این باره تغییر کرد و این مساله در کنار افزایش سرعت پیشرفت هوش مصنوعی، جیب بسیاری از فعالان را پرپول‌تر کرد.

به گزارش پیوست، در سال ۲۰۲۳ مساله خطرات آخر‌الزامی هوش مصنوعی و امنیت این فناوری از یک بحث خاص فعالان فناوری به تیتر یک رسانه‌های بزرگی مثل CNN و نیویورک‌ تایمز تبدیل شد.

سال ۲۰۲۳ و هشدارهای جدی

پس از عرضه ChatGPT در نوامبر ۲۰۲۲ و توجه گسترده کاربران و صنایع به فناوری هوش مصنوعی، سال ۲۰۲۳ هشدار‌های مهمی را از چهره‌های تاثیرگذار در این صنعت مشاهده کردیم. ایلان ماسک و بیش از یک هزار فناور و پژوهشگر در آن سال خواستار توقف توسعه هوش مصنوعی و آمادگی جهان برای خطرات جدی این فناوری شدند.

کمی پس از آن پژوهشگران ارشد اوپن‌ای‌آی، گوگل و چندین مرکز مهم دیگر نامه سرگشاده‌ای را امضا کردند که تصریح می‌کرد خطرات هوش مصنوعی برای انقراض بشر را باید جدی گرفت. جو بایدن، رئیس جمهور آمریکا، چند ماه بعد با امضای یک دستور اجرایی را با هدف محافظت از آمریکایی‌ها در برابر هوش مصنوعی امضا کرد. در نوامبر ۲۰۲۳، هیات مدیره واحد عام‌المنفعه شرکت اوپن‌ای‌آی به یک باره سم آلتمن، مدیرعامل بخش سود محور را به دلیل عدم صداقت اخراج کردند و با اینکه آلتمن خیلی زود به جایگاه خود بازگشت و تمام اعضای آن هیات مدیره از شرکت خارج شدند، اما موجی از نگرانی‌ها درمورد دلیل اصلی این اقدام شکل گرفت.

این تحولات و اظهارنگرانی‌ها باعث شد تا برای مدتی بحث امنیت هوش مصنوعی به موضوع اصلی تبدیل شود و فناوران سیلیکون‌ولی در اولویت‌های بعدی قرار گیرند.

بسیاری از کارآفرینان سیلکیون‌ولی نگران این رویکرد آخر الزمانی به هوش مصنوعی بودند و شرایط چندی بعد با موج جدیدی از اظهارنظر‌های مثبت به نفع کارآفرینان تغییر کرد و جریان اصلی از دلواپسان و آخرالزمانی‌ها فاصله گرفت.

چرا هوش مصنوعی جهان را نجات می‌دهد

مارک اندرسن، بنیان‌گذار شرکت سرمایه‌گذاری a16z، در پاسخ به این نگرانی‌ها در ژوئن سال ۲۰۲۳ مقاله‌ای با عنوان «چرا هوش مصنوعی جهان را نجات می‌دهد» منتشر کرد و در این مقاله ۷۰۰۰ کلمه‌ای به تشریح یک دیدگاه‌ مثبت از آینده این فناوری و اثرات آن پرداخت.

اندرسن مدعی شد که برای جلوگیری از خطرات احتمالی، استارت‌آپ‌ها و شرکت‌های بزرگ فناوری باید بتوانند بدون موانع قانونی و یا با قوانین حداقلی به توسعه هرچه سریع‌تر هوش مصنوعی بپردازند تا این فناوری تنها در دستان چند شرکت و دولت محدود نشود و آمریکایی‌ها توان رقابت با چین را داشته باشند.

البته که چنین رویکردی باعث می‌شود تا اهداف سرمایه‌گذاری a16z با یک نگاه مثبت به جذب سرمایه هرچه بیشتری بپردازند و رشد کنند. دیگر چهره‌های سیلیکون‌ولی از جمله ساتیا نادلا، مدیرعامل مایکروسافت، نیز با نگاهی مشابه خواستار عدم‌ تنظیم‌گری تنظیم‌گری صنعت هوش مصنوعی شدند.

در نتیجه با وجود هشدارهای افرادی مثل ماسک، هوش مصنوعی بیشترین سرمایه را جذب خود کرد و توسعه با سرعت ادامه پیدا کرد. اوپن‌ای‌آی، بزرگترین استارت‌آپ هوش مصنوعی جهان، در عین نگرانی‌ها بخش مهمی از پژوهشگران بخش ایمنی خود را از دست داد و فرهنگ ایمن‌سازی جای خود را به توسعه داد.

قانون اجرایی دولت بایدن نیز در پایان سال و با پیروزی دونالد ترامپ در انتخابات که وعده لغو این دستور را داده بود، اهمیت خود را از دست داد.

شاید یکی دیگر از دلایل کاهش توجه به بحث امنیت و ایمنی را نیز بتوان فراگیر شدن ابزار‌های هوش مصنوعی مولد دانست. کاربران در سالی که گذشت دیدند که این ابزارها تا چه اندازه با آن چشم‌انداز فرا انسانی و خطرناک فاصله دارند و اشتباهات ساده‌ای از آنها سر می‌زند.

با این حال بخشی از ابزارهایی که به فیلم‌های علمی‌تخیلی شبیه بودند در این سال در اختیار کاربران قرار گرفت. از جمله آنها می‌توان به مولد ویدیو سورا از اوپن‌ای‌آی و محصول مشابهی از گوگل و دیگر شرکت‌ها اشاره کرد.

تلاش‌ها برای تنظیم‌گری و جلوگیری از خطرات احتمالی در نهایت به قانون‌گذاری در ایالت کالیفرنیا، میزبان بزرگترین شرکت‌های فناوری جهان، رسید.

شکست لایحه SB1047 و احتمال تلاش مجدد در سال ۲۰۲۵

یکی از مهم‌ترین بحث‌های سال ۲۰۲۴ درباره خطرات و تنظیم‌گری هوش مصنوعی به لایحهSB 1047  در کالیفرنیا مربوط می‌شد. این لایحه با حمایت دانشمندانی مانند جفری هینتون و یوشوا بنژیو، سعی داشت تا جامعه را در برابر خطرات انقراض جمعی و حملات سایبری برآمده از ابزارهای هوش مصنوعی محافظت کند.

با وجود تصویب این لایحه در مجلس قانون‌گذاران کالیفرنیا، گوین نیوسام، فرماندار کالیفرنیا این قانون را وتو کرد.

فعالان فناوری از جمله Y Combinator خواستار اعتراض بنیان‌گذاران و کارآفرینان جوان علیه این قانون شدند و با ادعاهایی که از نگاه بسیاری تفسیر اشتباه از لایحه پیشنهادی بود، آن را مانع نوآوری و حتی ابزاری برای زندانی کردن فناوران دانستند.

نیوسام با رد این قانون، تاثیر آن را بسیار گسترده تعریف کرد.

با این حال سیاست‌گذارانی که از SB 1047 حمایت کرده بودند می‌گویند شاید لایحه اصلاح شده دیگری برای رفع خطرات بلند‌مدت هوش مصنوعی در سال ۲۰۲۵ مجدد مطرح شود. سانی گاندی، معاون موسسه خیریه Encode و از حامیان این لایحه، می‌گوید این لایحه توانست آگاهی عمومی را درمورد خطرات بلندمدت هوش مصنوعی افزایش دهد و قانون‌گذاران بیشتری آماده رویارویی با این چالش‌های پیچیده هستند.

 

https://pvst.ir/jy4

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو