موسسه ابوظبی و انویدیا آزمایشگاه هوش مصنوعی و روباتیک در امارات راهاندازی میکنند
مؤسسه نوآوری فناوری ابوظبی (TII) و شرکت آمریکایی انویدیا نخستین مرکز تحقیقاتی مشترک هوش مصنوعی…
۳۱ شهریور ۱۴۰۴
۳۱ شهریور ۱۴۰۴
زمان مطالعه : ۵ دقیقه
شرکت اوپنایآی روز سهشنبه از مجموعهای قابلیتهای جدید برای افزایش ایمنی نوجوانان در استفاده از چتبات ChatGPT رونمایی کرد؛ اقدامی که در پاسخ به نگرانیهای گسترده درباره نحوه تعامل افراد کمسنوسال با هوش مصنوعی و پس از آن صورت گرفت که والدین نوجوانی ۱۶ ساله پس از خودکشی او از این شرکت به دلیل نقش داشتن در این فاجعه شکایت کردند.
به گزارش پیوست به نقل از مجله وایرد، این شرکت قصد دارد با استفاده از فناوری پیشبینی سن، کاربران زیر ۱۸ سال را شناسایی کرده و تجربهای «متناسب با سن» را در اختیار آنها بگذارد؛ تجربهای که موضوعاتی مثل عدم دسترسی به محتوای جنسی آشکار و مداخلات فوری در صورت تشخیص نشانههای خودکشی یا آسیب به خود را شامل میشود.
طبق این طرح، اگر سیستم تشخیص دهد کاربر نوجوان در معرض خطر فوری قرار دارند، ابتدا به والدین فرد اطلاعرسانی میشود. در مواردی که دسترسی به والدین ممکن نباشد، اوپنایآی میگوید ممکن است موضوع به مراجع قانونی گزارش شود. این تصمیمها بخشی از تلاش شرکت برای ایجاد تعادل میان آزادی، حریم خصوصی و امنیت نوجوانان است.
سم آلتمن، مدیرعامل اوپنایآی، طی یادداشتی که در وبلاگ شرکت منتشر شد پیرامون ایجاد تعامل میان آزادی، حریم خصوصی و امنیت نوجوانان نوشت: «میدانیم که این اصول در تضاد هستند و همه بر سر راهحل ما برای حل این تعارض اتفاق نظر ندارند. اینها تصمیمات دشواری هستند، اما پس از مشورت با متخصصان، به نظر ما این بهترین راه است و میخواهیم درمورد انگیزههای خودمان شفاف باشیم.»
اوپنایآی میگوید تا پایان سپتامبر قابلیتهایی را برای کنترل والدین عرضه خواهد کرد. این ابزارها به والدین اجازه میدهد تا حساب فرزند خود را به حساب اصلیشان متصل کنند و بر گفتگوها نظارت داشته باشند. آنها میتوانند برخی قابلیتها را غیرفعال کنند، محدودیت زمانی برای استفاده تعیین نمایند و در صورت بروز نشانههای «آشکار بحران روحی» از سوی نوجوان، هشدار دریافت کنند.
قابلیتهای کنترل والدینی که اوپنایآی در دست توسعه دارد را میتوان برداشتی از نسخه مشابه قابلیتهای کنترل والدین در پلتفرمهای متا دانست. شرکت متا نیز پس از جنجالهای مشابه پیرامون امنیت کودکان و نوجوانان در شبکههای اجتماعی خود قابلیتهایی را عرضه کرده است که والدین براساس آن میتوانند تا حد زیادی بر تعاملات کودک و نوجوان خود نظارت داشته باشند و حتی ارسال پیام از سوی حسابهای ناشناس را محدود کرده و صورت مشاهده هشدار دریافت کنند.
تغییرات رویکرد شرکت اوپنایآی را در حالی شاهد هستیم که طی ماههای اخیر گزارشهای نگرانکنندهای درباره تاثیر منفی گفتوگوهای طولانی با چتباتها منتشر شده است؛ از جمله مواردی از خودکشی یا خشونت خانگی که بهنوعی با تعاملات آنلاین با هوش مصنوعی مرتبط دانسته شدهاند. این موضوع باعث جلب توجه قانونگذاران شده و شرکتهایی همچون متا و اوپنایآی بیش از پیش زیر ذرهبین نهادهای نظارتی قرار گرفتهاند.
اوایل ماه جاری، کمیسیون فدرال تجارت ایالات متحده (FTC) از شرکتهای بزرگی چون متا، اوپنایآی و گوگل خواست اطلاعات بیشتری درباره تاثیر فناوریهایشان بر کودکان ارائه دهند. این فشارهای نظارتی نشان میدهد که موضوع امنیت نوجوانان در استفاده از فناوریهای نوظهور، به یکی از دغدغههای مهم دولتها و سیاستگذاران تبدیل شده است.
در عین حال، اوپنایآی همچنان براساس دستور دادگاه باید محتوای چت کاربران را به صورت دائمی ذخیره کند؛ موضوعی که به گفته منابع آگاه، نارضایتی عمیقی در داخل شرکت ایجاد کرده است. بسیاری از پژوهشگران اوپنایآی نگرانند که الزام به نگهداری دادهها با تعهد شرکت به حریم خصوصی در تضاد است.
آلتمن در گفتوگویی اخیر خود با تاکر کارلسون، مجری سابق شبکه فاکس و پادکستر محبوب محافظهکار، تاکید کرد که در نهایت مسئولیت نهایی تصمیمهای مربوط به نحوه تنظیم رفتار مدلها با اوست: «من چهره عمومی این شرکت هستم. در نهایت من کسی هستم که میتوانم این تصمیمها را تایید یا رد کنم.»
با این حال، برخی منتقدان معتقدند اقدامات فعلی بیشتر جنبه روابط عمومی دارد تا یک راهحل جامع. آنها میگویند با نبود قانونگذاری فدرال مشخص در آمریکا، هیچ الزام واقعی برای شرکتهای هوش مصنوعی وجود ندارد تا همیشه به نفع کاربران نوجوان عمل کنند. در چنین فضایی، ابتکاراتی نظیر ابزارهای پیشبینی سن و کنترل والدین میتواند هم گامی به جلو باشد و هم تلاشی برای پیشگیری از انتقادات شدیدتر.
یکی از نکات جالبی که آلتمن در یک مصاحبه دیگر مطرح کرد، به وسوسه شرکت برای عرضه قابلیتهایی اشاره داشت که میتوانستند «رشد کاربران را بهشدت افزایش دهند.» او با لحنی طنزآلود گفت: «ما هنوز یک آواتار جنسی در ChatGPT قرار ندادهایم.» چنین اظهار نظرهایی نشان میدهد که حتی در سطح مدیریتی نیز ایجاد تعادلی میان جذابیت تجاری و مسئولیت اخلاقی همیشه آسان نیست.
اوپنایآی به تازگی اولین پژوهش خود درمورد الگوهای استفاده کاربران از ChatGPT را منتشر کرده است، اما این تحقیق افرادی که به نظر زیر ۱۸ هستند را تا حد زیادی از دادههای خود پاکسازی کرده است. همین مسئله پرسشهای مهمی را ایجاد کرده است: نوجوانان واقعا از هوش مصنوعی چطور استفاده میکنند؟ و تاثیرات روانی، اجتماعی و آموزشی آن بر این گروه سنی چیست؟ تا زمانی که پاسخهای دقیقتری برای این پرسشها یافت نشود، نگرانیها همچنان پابرجا خواهد بود.
خبر تلاشهای اوپنایآی برای عرضه ویژگیهای جدید ایمنی برای نوجوانان را میتوان اقدامی مثبت در مسیر کاهش ریسکهای هوش مصنوعی دانست اما هنوز درمورد بازدهی این راهکارها و تاثیر آنها بر حریم خصوصی ابهامهایی وجود دارد.
در شرایطی که بسیاری از خانوادهها نگران اثرات گفتوگوهای طولانی فرزندانشان با چتباتها هستند، ابزارهایی نظیر پیشبینی سن، کنترل والدین و مداخلات در مواقع بحرانی میتواند سطحی از اطمینان خاطر برای والدین باشند.
با این حال، کارشناسان معتقدند که چنین اقداماتی بهتنهایی کافی نیست و به چارچوبهای قانونی جامعی نیاز است که شرکتها را به صورت یکپارچه و الزامات مشخص ملزم به تغییر مثبت در این مسیر کند. بدون قوانین الزامآور، همچنان احتمال دارد که منافع تجاری بر ملاحظات اخلاقی و ایمنی اولویت پیدا کند. بهنظر میرسد آینده تعامل نوجوانان با هوش مصنوعی، همانقدر که به نوآوریهای فنی وابسته است، به تصمیمهای سیاسی و اجتماعی نیز گره خورده است.