skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

المپیک پاریس و نظارت با هوش مصنوعی: انتقاد جدی گروه‌های حامی حریم خصوصی

۶ مرداد ۱۴۰۳

زمان مطالعه : ۵ دقیقه

المپیک پاریس که روز جمع آغاز شد را می‌توان اولین میزبانی کشور‌های بزرگ غربی از یک پدیده جدید و بحث برانگیز در جهان فناوری دانست. نشریه حقوقی بلومبرگ گزارش می‌دهد که استفاده از سیستم‌های نظارت ویدیویی با استفاده از الگوریتم باعث بحث‌های بسیاری در این رابطه شده است. علاوه‌ بر نگرانی‌ها از نقض حریم خصوصی، بسیاری به سوگیری این ابزارها و عدم بازدهی آنها در مطالعات انجام گرفته اشاره می‌کنند و خواستار شفاف‌سازی بیشتری در این رابطه هستند.

به گزارش پیوست، براساس یک قانون موقت در فرانسه، مقامات این کشور امکان استفاده از هوش مصنوعی و یادگیری ماشینی برای تجزیه تحلیل آنی اطلاعات ویدیویی و نظارت هوشمند بر جمعیت‌ها را فراهم کرده‌اند. این ابزارها قرار است ناهنجاری و تهدید‌ها را با سرعت بالایی تشخیص داده و حتی پیش‌بینی کنند.

دوربین‌های سراسر شهر پاریس میلیون‌ها طرفدار المپیک و شهروند پاریس را با دقت زیر نظر می‌گیرند و قرار است چیزهایی مثل وجود اسلحه یا حرکت افراد در خلاف جهت جمعیت و دیگر موارد عجیب را شناسایی کنند. در صورت تشخیص ناهنجاری و تهدید، این موارد به کارکنان امنیتی اطلاع داده می‌شود و آنها درمورد گزارش به پلیس ملی و محلی تصمیم می‌گیرند.

با اینکه قانون‌گذاران فرانسوی این ابزار را یک اقدام امنیتی ویژه برای جلوگیری از خشونت در این مراسم چند‌ هفته‌ای عنوان می‌کنند، اما حامیان حریم خصوصی در سراسر جهان در این باره اظهار نگرانی کرده‌اند.

آری ازرا والدمن، استاد حقوق دانشگاه کالیفرنیا، با اشاره به فیلم علمی‌تخیلی Minority Report سال ۲۰۰۲، می‌گوید: «آنچه این ابزارها قرار است محقق کنند چیزی شبیه به تلاش‌های پیش از هوشیاری تام کروز در آن فیلم چند سال پیش است.»

برخی از حامیان حریم خصوصی می‌گویند این فناوری آزادی‌های مدنی را نقض می‌:ند، سو‌گیری ذاتی دارد و با احتمال اشتباه روبرو است. همچنین جمع‌آوری داده در آینده نیز ادامه پیدا می‌کند و از این فناوری در مراسم‌های بزرگ آمریکایی، از جمله المپیک سال ۲۰۲۸ لس آنچلس، استفاده خواهد شد.

با اینکه والدمن و دیگر حامیان حریم خصوصی به افزایش خطرات احتمالی در نتیجه گرد هم آمدن چنین اعتراف می‌کنند اما از نظر آنها راه‌های دیگر و بازارهای بهتری وجود دارند که با نگرانی‌های حریم خصوصی کمتری هم همراه هستند.

به گفته والدمن استادیوم‌ها به خوبی با حسگر‌های فلز، بررسی بدنی و مقررات عدم حمل کیف، جمعیت را مدیریت می‌کنند. به گفته او اصرار بر استفاده از هوش مصنوعی برآمده از رویکردی است که استفاده از فناوری را همواره بهتر از روش‌های سابق می‌داند.

قانونی که امکان استفاده از چنین نظارتی را در فرانسه فراهم کرده است پس از یک دوره مشخص منسوخ می‌شود. در حالی که با اتکا به همین قانون می‌توان برای مسابقات پارالمپیک ۲۰۲۴ که ۲۸ آگوست آغاز می‌شود نیز از نظارت الگوریتمی استفاده کرد، اما بهار سال آینده دیگر چنین قانونی وجود نخواهد داشت.

با این حال از نگاه حامیان حریم خصوصی، افزایش استفاده از سیستم‌های هوش مصنوعی ویدیویی در چنین مراسم‌های مهمی ممکن است باعث میل بیشتر به استفاده از این سیستم‌ها در مناطق دیگر شود.

الا جاکوبفسکی، رئیس سیاست‌گذاری در سازمان حقوق دیجیتال اروپاییان (European Digital Rights)، می‌گوید: «آنها همیشه از این اسب‌های تروجان استفاده می‌کنند تا استفاده گسترده‌تر از این فناوری‌ها را اجرایی کنند.»

نگرانی‌های جدی

با اینکه قوانین فرانسوی تنها برای یک دوره مشخص استفاده از این سیستم‌ها را مجاز می‌داند و در این مقررات تصریح شده است که سیستم‌ها اطلاعات بیومتریک را پردازش نمی‌کنند، اما گروه‌‌های حامی حریم خصوصی تردید دارند.

سازمان حقوق دیجیتال اروپاییان و حدود سی سازمان حقوق بشری دیگر سال گذشته در نامه سر گشاده‌ای اعلام کردند با اینکه این سیستم‌ها براساس قوانین فرانسه از ترفند‌های تشخیص چهره استفاده نمی‌کنند، اما همچنان افراد را در میان جمعیت شناسایی می‌کنند. درنتیجه شاهد «شناسایی خاص» هستیم که محافظت‌های موجود در مقررات عمومی حفاظت از داده اتحادیه اروپا را نقض می‌کند.

همچنین به گفته لاورا لازارو کابررا، مشاور و مسئول طرح برابر و داده در مرکز دموکراسی و فناوری، این ابزارها برای تشخیص آن دسته از رخداد‌هایی که قرار است زیر نظر بگیرند نیاز به داده‌های بیومتریک دارند.

لازارو کابررا می‌گوید: «[این سیستم] لزوما مشخصه‌های فیزیولوژیکی رفتار‌ها و افرادی را که در این فضا‌ها حضور دارند، از جمله حالت بدنی آنها، حرکت‌ها، حالت‌ها و غیره را ثبت و تجزیه‌تحلیل می‌کند.»

افزون بر این، با اینکه مدارک کافی از بازدهی این سیستم‌ها وجود ندارد، از آنها در موضوعات احساسی استفاده می‌شود. مطالعه‌ای در سال ۲۰۲۳ از The Markup و Wired نشان داد که نرم‌افزار نظارت پیشگویانه Geolitica در پیش‌بینی جریام ضعیف است و نرخ موفقیت آن برای برخی از جرایم تا ۰.۱ درصد کاهش می‌یابد. تحقیقات دیگری در سال گذشته نیز نشان داد که استفاده از ابزارهای تشخیص جهره خودکار در نهاد‌های انتظامی به دستگیری بیشتر سیاه‌پوستان منجر می‌شود که از نگاه تحلیلگران به وضعیت دیتاست این ابزارها بر می‌گردد.

به همین دلیل گروه‌های حقوق بشری می‌گویند باید درمورد میزان بازدهی این سیستم‌ها برای عموم شفاف‌سازی شود تا مردم نیت خیر استفاده از آنها را به معنی بازدهی و کاربردی بودن آنها تلقی نکنند.

 

 

https://pvst.ir/ihu

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو