skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

حقوق و فناوری

پگاه قربانی وکیل دادگستری و مشاور حقوقی

پگاه قربانی وکیل دادگستری و مشاور حقوقی

غزاله دخیلی وکیل دادگستری و مشاور حقوقی

چالش‌های حقوقی در پلتفرم‌های مبتنی بر هوش مصنوعی؛ میان ماه من تا ماه گردون

پگاه قربانی وکیل دادگستری و مشاور حقوقی
پگاه قربانی
وکیل دادگستری و مشاور حقوقی
غزاله دخیلی
وکیل دادگستری و مشاور حقوقی

۱۶ آبان ۱۴۰۴

زمان مطالعه : ۸ دقیقه

شماره ۱۳۹

میان ماه من تا ماه گردون

در سال‌های اخیر شاهد پیشرفت‌های چشمگیری در حوزه فناوری اطلاعات و ارتباطات، به‌ویژه در زمینه هوش مصنوعی (Artificial Intelligence – AI)، بوده‌ایم. این پیشرفت‌ها نسل جدیدی از پلتفرم‌ها را به وجود آورده‌اند که تحولی بنیادین در ابعاد مختلف زندگی فردی، اجتماعی و اقتصادی بشر امروز رقم زده‌اند و به‌سرعت در حوزه‌هایی نظیر مالی، تجارت الکترونیکی، بهداشت و درمان، آموزش، حمل‌ونقل هوشمند و حتی فرایندهای حقوقی و قضایی گسترش یافته‌اند. با‌این‌حال، همان‌قدر که موجب تسهیل امور و افزایش بهره‌وری می‌شوند، چالش‌های متعددی نیز در عرصه‌های حقوقی، اخلاقی و اجتماعی به همراه دارند. در کنار فرصت‌های نوآورانه و تحولات مثبت، مسائل مهمی چون مسئولیت حقوقی در قبال خطاهای الگوریتمی، رعایت حریم خصوصی و حفاظت از داده‌ها، مالکیت فکری آثار تولیدشده به‌وسیله هوش مصنوعی و شفافیت در تصمیمات خودکار نیز مطرح می‌شود.

ازاین‌رو، بررسی چالش‌های پلتفرم‌های مبتنی بر هوش مصنوعی از منظر حقوقی، در کنار مطالعات فنی و اقتصادی، ضرورت دارد تا زمینه تدوین چارچوب‌های قانونی جامع و پیشگیرانه فراهم شود و نظام حقوقی کشور بتواند به‌طور موثر از آسیب‌های احتمالی ناشی از این فناوری جلوگیری کند. بر همین اساس، در این مقاله به بررسی برخی از مهم‌ترین چالش‌های حقوقی پلتفرم‌های هوش مصنوعی پرداخته خواهد شد.

مسئولیت حقوقی

یکی از بنیادی‌ترین چالش‌های حقوقی در پلتفرم‌های مبتنی بر هوش مصنوعی، موضوع مسئولیت حقوقی است؛ بااین‌اوصاف این پرسش پیش می‌آید که محدوده و شخص مسئول در قبال خسارات ناشی از عملکرد این پلتفرم‌ها تا کجا و چه کسی است؟ به بیان دیگر، در‌صورتی‌‌که خطا یا خسارت مالی از سوی الگوریتم هوش مصنوعی وارد شود، مسئولیت متوجه چه شخص یا نهادی خواهد بود؟ کاربر؟ توسعه‌دهنده؟ یا ارائه‌دهنده پلتفرم؟ مسئولیت مذکور را می‌توان در سه حوزه اصلی بررسی کرد:

مسئولیت مدنی: در حقوق ایران و به موجب ماده ۱ قانون مسئولیت مدنی مصوب ۱۳۳۹، هرکس بدون مجوز قانونی، عمداً یا در نتیجه بی‌احتیاطی به دیگری زیان وارد کند، مسئول جبران خسارت است. پرسش اساسی این است که در پلتفرم‌های هوش مصنوعی، فاعل زیان چه کسی محسوب می‌شود؟ هنگامی‌ که خطا یا زیانی به بار آید، کدام شخص باید جبران خسارت کند؟ پاسخ این پرسش‌ها اغلب شامل توسعه‌دهنده، ارائه‌دهنده پلتفرم یا کاربر خواهد بود. با‌این‌حال، تفکیک فاعل زیان در چنین نظام‌هایی گاه به‌قدری پیچیده است که نمی‌توان با یک قانون‌گذاری ساده، راه‌حلی قطعی برای آن پیدا کرد.

مسئولیت کیفری: نوع دیگر مسئولیت، مسئولیت کیفری است. بر اساس «اصل شخصی‌بودن جرم و مجازات» و تعریف قانونی «شخص» اعم از حقیقی و حقوقی، نمی‌توان ماشین یا سامانه هوش مصنوعی را فاعل جرم قلمداد کرد؛ زیرا فاقد اراده و سوءنیت انسانی است.

بنابراین، بر فرض اینکه یک سامانه هوش مصنوعی اقدام به تولید یا انتشار محتوای مجرمانه کند (مانند تولید و انتشار تصاویر مستهجن)، این پرسش پیش می‌آید که فاعل جرم چه کسی است؟ آیا صرف مالکیت یا بهره‌برداری از پلتفرم موجب تحقق مسئولیت کیفری است یا احراز علم و سوءنیت کاربر نیز ضرورت دارد؟

با تصویب قانون جرائم رایانه‌ای مصوب ۱۳۸۸، بخشی از خلأهای قانون مجازات اسلامی و قانون تعزیرات در زمینه جرائم رایانه‌ای برطرف و اعمالی مانند تولید یا انتشار محتوای مجرمانه، دسترسی غیرمجاز یا شنود داده‌ها جرم‌انگاری شد. با وجود این، این قانون همچنان در زمینه خروجی‌های خودکار هوش مصنوعی و آثار کیفری ناشی از تصمیمات غیرانسانی، دچار ابهام و خلاء جدی است و پاسخ روشنی به‌دست نمی‌دهد.

مسئولیت قراردادی: در بسیاری از پلتفرم‌های مبتنی بر هوش مصنوعی، روابط میان کاربر و ارائه‌دهنده از طریق شرایط استفاده یا توافق‌نامه خدمات (Terms of Service)، که ماهیت قراردادی دارد، تنظیم می‌شود. در نتیجه، چنانچه خسارت ناشی از نقض تعهدات قراردادی باشد، مسئولیت قراردادی مطرح خواهد شد. با‌این‌حال، اثبات رابطه‌ی مستقیم میان خسارت و الگوریتم یا عوامل انسانی همواره آسان نیست. گاه خطا ناشی از فرایند یادگیری ماشینی (Machine Learning) است، نه طراحی اولیه نرم‌افزار. افزون بر آن، ممکن است چند شرکت یا شخص مختلف در توسعه، نگهداری و بهره‌برداری از سامانه نقش داشته باشند که این امر تعیین دقیق مسئولیت را پیچیده‌تر می‌کند.

رعایت حریم خصوصی و حفاظت از داده‌ها

یکی دیگر از مهم‌ترین چالش‌های حقوقی پلتفرم‌های مبتنی بر هوش مصنوعی، نحوه جمع‌آوری، پردازش و ذخیره‌سازی داده‌های کاربران است. الگوریتم‌های هوش مصنوعی بیشتر بر پایه داده‌های کلان (Big Data) فعالیت می‌کنند و این داده‌ها غالباً شامل اطلاعات حساس، شخصی و حتی محرمانه افراد می‌شوند. از‌این‌رو، پرسش اساسی این است که در نظام حقوقی ایران، تا‌چه‌حد حمایت از داده‌های شخصی و رعایت حریم خصوصی افراد در کانون توجه قرار گرفته است؟ علاوه بر اصول ۲۲ و ۲۵ قانون اساسی در احترام به حریم خصوصی شهروندان، مواد ۱ تا ۴ قانون جرائم رایانه‌ای مصوب ۱۳۸۸ دسترسی غیرمجاز، شنود داده‌ها، افشای اطلاعات شخصی و سوء‌استفاده از داده‌ها را جرم می‌داند؛ یا ماده ۵۸ قانون تجارت الکترونیکی مصوب ۱۳۸۲ که فروشندگان و ارائه‌دهندگان خدمات الکترونیکی را مکلف به رعایت محرمانگی اطلاعات شخصی کاربران می‌کند؛ با وجود این، باید اذعان داشت که در ایران قانون جامع و منسجمی در زمینه حفاظت از داده‌های شخصی وضع نشده است. نبود چنین قانونی موجب ابهام در تعیین مسئولیت و فقدان ضمانت اجرایی موثر در مواجهه با نقض داده‌ها شده و همین خلأ، ضرورت تدوین قانون جامع حفاظت از داده‌های شخصی را بیش از پیش آشکار می‌کند.

چالش‌های ناشی از فقدان قانون جامع مشابه GDPR

نبود قانون جامع و پراکندگی مقررات در حوزه حفاظت از داده‌ها، مشکلات متعددی به همراه دارد، از جمله:

  • ابهام در مالکیت داده‌های تولیدشده در بستر پلتفرم‌های هوش مصنوعی؛
  • نبود شفافیت در نحوه جمع‌آوری و پردازش داده‌ها و فقدان الزام قانونی برای اطلاع‌رسانی به کاربران؛
  • نبود چارچوب قانونی مشخص برای انتقال بین‌المللی داده‌ها و تضمین امنیت آنها؛
  • فقدان مقررات خاص برای حمایت از داده‌های حساس و حیاتی از منظر سوءاستفاده‌های اقتصادی، تجاری یا امنیتی.

پلتفرم‌های مبتنی بر هوش مصنوعی با تکیه بر داده‌های شخصی، فرصت‌های اقتصادی، علمی و فناورانه چشمگیری به‌دست می‌دهند، اما در سایه فقدان قوانین جامع و منسجم، این فرصت‌ها می‌توانند تهدیداتی برای حقوق و آزادی‌های فردی نیز به همراه داشته باشند. چارچوب‌های حقوقی فعلی در ایران صرفاً بخشی از این مسائل را پوشش می‌دهند و برای حمایت واقعی از حقوق داده‌ای کاربران، به قانونی مشابه مقررات عمومی حفاظت از داده‌ها (GDPR) در اتحادیه اروپا نیاز است.

چنین قانونی می‌تواند با در نظر گرفتن شرایط فرهنگی و حقوقی ایران، حقوق کاربران را تضمین کند، ارائه‌دهندگان پلتفرم‌ها را ملزم به شفافیت در فرایند جمع‌آوری و پردازش داده‌ها کند و انتقال داده‌ها به خارج از کشور را تحت نظارت دقیق قانونی قرار دهد.

مالکیت فکری آثار تولیدشده به‌وسیله هوش مصنوعی

ظهور سامانه‌های هوش مصنوعی که قادر به تولید آثار خلاقانه‌ای نظیر متون، تصاویر، موسیقی، نرم‌افزار و حتی اختراعات هستند، چالشی جدی در حوزه مالکیت فکری ایجاد کرده است؛ زیرا قوانین ایران صرفاً مالکیت آثار خلاق انسانی را به رسمیت می‌شناسند و برای آثار خودکارِ تولیدشده به‌وسیله هوش مصنوعی جایگاهی مشخص نکرده‌اند.

این وضعیت موجب بروز ابهام در تعیین مالک اثر می‌شود؛ به‌ویژه در پاسخ به پرسش‌هایی نظیر اینکه مالک اثر تولیدشده چه کسی است؟

آیا کاربر انسانی که الگوریتم را اجرا کرده، توسعه‌دهنده نرم‌افزار که آن را طراحی کرده، یا بهره‌بردار و ناشر پلتفرم مالک اثر محسوب می‌شود؟

از آنجا‌که قوانین فعلی، از جمله قانون ثبت اختراعات، طرح‌های صنعتی و علائم تجاری مصوب ۱۳۸۶ و قانون حمایت از مؤلفان، مصنفان و هنرمندان مصوب ۱۳۴۸، صرفاً نوآوری و خلاقیت انسانی را قابل حمایت و ثبت می‌دانند، آثار تولیدشده به‌صورت خودکار با هوش مصنوعی، امکان ثبت قانونی و بهره‌برداری رسمی ندارند؛ حتی اگر از نظر اقتصادی یا علمی ارزش بالایی داشته باشند.

بنابراین، خلاء قانونی موجود در حوزه مالکیت فکری آثار تولیدشده به‌وسیله هوش مصنوعی، ضرورت تدوین مقررات جامع و مدون برای تعیین مالکیت، نحوه بهره‌برداری و حدود مسئولیت اشخاص مرتبط را آشکار می‌کند. در مجموع، می‌توان گفت قوانین فعلی ایران در مواجهه با این نوع آثار، پاسخگوی نیازهای نوین جامعه دیجیتال نیستند و باید با تصویب قانونی جامع، چارچوب حقوقی شفاف و منسجمی برای حمایت از آثار هوش مصنوعی تعیین شود.

شفافیت و تبعیض الگوریتمی در پلتفرم‌های هوش مصنوعی

یکی دیگر از چالش‌های مهم حقوقی پلتفرم‌های مبتنی بر هوش مصنوعی، موضوع شفافیت و تبعیض در تصمیمات خودکار است. الگوریتم‌های هوشمند، به‌دلیل پیچیدگی ساختار و استفاده از داده‌های گسترده و متنوع، گاهی تصمیماتی می‌گیرند که قابل پیش‌بینی یا توضیح نیستند. این مساله موجب ابهام در نحوه تصمیم‌گیری و تعیین مسئولیت آن می‌شود.

در حوزه‌هایی مانند استخدام، اعطای وام، ارائه خدمات پزشکی یا تخصیص منابع عمومی، اگر داده‌های ورودی الگوریتم دچار سوگیری یا نقص باشند، تصمیمات نهایی می‌تواند غیرمنصفانه و تبعیض‌آمیز باشد. با این حال، قوانین فعلی ایران از جمله قانون اساسی، قانون تجارت الکترونیکی و قانون جرائم رایانه‌ای، به‌طور مستقیم به موضوعاتی مانند الزام به شفافیت الگوریتمی، قابلیت توضیح‌پذیری تصمیمات خودکار یا مقابله با تبعیض داده‌ای اشاره نکرده‌اند.

این خلاء قانونی باعث می‌شود کاربران و زیان‌دیدگان نتوانند به‌سهولت مسئولیت تصمیمات ناعادلانه یا تبعیض‌آمیز را پیگیری کنند و نهادهای نظارتی نیز ابزار موثر و کافی برای کنترل یا اصلاح الگوریتم‌ها در اختیار نداشته باشند.

ازاین‌رو، تضمین شفافیت در تصمیمات الگوریتمی، شناسایی سوگیری داده‌ها و امکان توضیح‌پذیری عملکرد سامانه‌ها از الزامات ضروری به‌منظور حمایت از حقوق کاربران و پیشگیری از آسیب‌های اجتماعی ناشی از تصمیمات خودکار هوش مصنوعی است. تدوین چارچوب‌های حقوقی شفاف در این زمینه می‌تواند از بروز تبعیض، خطای تصمیم‌گیری و سوءاستفاده احتمالی از فناوری‌های هوشمند جلوگیری کند و اعتماد عمومی به پلتفرم‌های مبتنی بر هوش مصنوعی را بالا ببرد.

این مطلب در شماره ۱۳۹ پیوست منتشر شده است.

ماهنامه ۱۳۹ پیوست
دانلود نسخه PDF
https://pvst.ir/msj

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو