skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر
انتخاب سردبیر

ریسک‌های قانونی و قراردادی هوش مصنوعی چیست؟

۶ خرداد ۱۴۰۲

زمان مطالعه : ۱۲ دقیقه

شماره ۱۱۲

تاریخ به‌روزرسانی: ۱۶ خرداد ۱۴۰۲

حقوق چت جی‌پی‌تی

جهان از روزهای آخر سال ۲۰۲۲ با پدیده‌ای به نام «چت جی‌پی‌تی» روبه‌رو شده است. نوعی هوش مصنوعی که با استفاده از داده‌هایی که در اختیارش قرار می‌گیرد می‌تواند محصولات متنی، تصویری و… تولید کند و مثلاً یک قرارداد حقوقی، یک کد برنامه‌نویسی و یک تصویر فرضی بسازد. چت جی‌پی‌تی البته یکی از برندهای هوش مصنوعی است که از سوی شرکتی به نام OpenAI توسعه یافته است اما به هر حال همان‌طور که ما به هر پودر لباسشویی «تاید» می‌گوییم، به هر هوش مصنوعی هم، دست‌کم در میان عامه، چت جی‌پی‌تی گفته می‌شود.

طبیعتاً از همان ابتدا، نگرانی‌های حقوقی‌ای در مورد این محصول به وجود آمد. این نگرانی‌ها در هر سه حوزه ورودی (داده‌های مورد استفاده‌ی این ماشین)، خروجی (محصول ارائه‌شده) و احتمال سوءاستفاده از آن بود. در این جریان شاهدیم که دست‌کم یک کشور یعنی ایتالیا، این نرم‌افزار را ممنوع کرد، یک جلسه برای این موضوع در سطح بالای مدیران عامل شرکت‌های فناوری در کاخ سفید با معاون رئیس‌جمهور آمریکا برگزار و طرح مربوط به نظام‌مندسازی هوش مصنوعی در یکی از کمیته‌های پارلمان اروپا تصویب شد و قرار است در اواسط ماه ژوئن در صحن این پارلمان به رأی گذاشته شود. بنابراین ماجرا واقعاً جدی است!

دو حقوقدان لهستانی به نام‌های Agnieszka Wachowska و Marcin Regorowicz که هر دو عضو یک سازمان حقوقی به نام Traple Konarski Podrecki & Partners هستند، حدود دو ماه پیش مقاله‌ای در سایت معتبر حقوقی lexology نوشتند و در آن دغدغه‌های حوزه حقوق در استفاده از هوش مصنوعی را مطرح کردند. این گزارش در واقع خلاصه ترجمه آن مقاله است به اضافه برخی اضافات و مقال‌ها حتی از حقوق ایران که بتواند در فهم بهتر این مطلب کمک کند.

مساله داده‌ها

برای اینکه ChatGPT بتواند هر نوع محتوایی تولید کند، ابتدا باید سوال مناسب از آن پرسیده شود. این سوالات ممکن است دستوری باشد که شامل هیچ نوع داده‌ای نیست. مثلاً اینکه من به چت جی‌پی‌تی بگویم مطلبی در زمینه «حقوق تجارت ایران» تولید کن. با این حال برخی اوقات ممکن است من دیتایی به این نرم‌افزار بدهم که حاوی داده‌هایی باشد که محافظت می‌شوند یا مشمول قوانین خاصی هستند. در اینجاست که موضوع می‌تواند بار حقوقی پیدا کند. به این مثال‌ها توجه کنید:

۱. فردی بخشی از استراتژی توسعه بازار یک شرکت را که جزو داده‌های تجاری محرمانه شرکت است در اختیار این نرم‌افزار می‌گذارد تا بتواند نظر نرم‌افزار را در مورد توسعه آن بداند.
۲. فردی یک کد برنامه‌نویسی را که یک پیمانکار طی یک قرارداد نوشته است اما در قرارداد آمده که باید منافع محصول بین طرفین تقسیم شود، به چت جی‌پی‌تی می‌دهد تا بتواند آن را تکمیل یا تصحیح کند.

ممکن است پیش خودتان فکر کنید مگر در این شرایط چه اتفاقی می‌افتد که باعث ایراد حقوقی می‌شود. مساله این است هنگامی که کاربر، هر نوع داده‌ای را در ChatGPT وارد می‌کند، در واقع آن داده‌ها را در اختیار ارائه‌دهنده ابزار یعنی شرکت OpenAI L.L.C در ایالات متحده قرار می‌دهد و تحت قراردادی که این سرویس دارد و باید با آن موافقت کنید، این شرکت مجاز است از محتوایی که شما ارائه می‌کنید به منظور حفظ، توسعه و ارتقای فناوری خود استفاده کند. بنابراین مشکل این است که:

۱. در مثال اول، کارمندی که قاعدتاً قرارداد محرمانگی داده با شرکت خود امضا کرده و بر این اساس امکان دسترسی به استراتژی تجاری شرکت را یافته، با نقض آن قرارداد این استراتژی را در اختیار شرکتی گذاشته و آن شرکت می‌تواند از این دیتا در محصولات خود استفاده کند.

۲. در مثال دوم، فردی که کدی را به چت جی‌پی‌تی داده، در واقع مرتکب نوعی خیانت در امانت شده است چراکه این کد در واقع سرمایه مشترک او و نویسنده آن کد برای کسب درآمد بوده است.

دقت داشته باشید که شما فقط محتوای ورودی را در اختیار این شرکت قرار نمی‌دهید بلکه این شرکت حق استفاده از محصول نهایی شما را هم برای سایر کاربران دارد و در واقع، ارائه محصول نهایی به شما به معنای ارائه یک محصول انحصاری نیست.

دقت کنید که ماجرای ارائه دیتا به این شرکت می‌تواند ابعاد کیفری پیچیده نیز داشته باشد. مثلاً ماده 501 قانون مجازات اسلامی می‌گوید: «هرکس نقشه‌ها یا اسرار یا اسناد و تصمیمات راجع به سیاست داخلی و خارجی کشور را عالماً و عامداً در اختیار افرادی که صلاحیت دسترسی به آنها را ندارند قرار دهد یا از مفاد آنها مطلع کند به نحوی که متضمن نوعی جاسوسی باشد، نظر به کیفیات و مراتب جرم به یک تا ده سال حبس محکوم می‌شود.» در این شرایط به‌عنوان مثال، اگر فردی برای اینکه نقشه یک جاده بین‌شهری را بکشد نقشه خطوط فیبرنوری را به چت‌ جی‌پی‌تی بدهد، می‌تواند با سخت‌گیری مشمول این ماده شود مخصوصاً با توجه به خصومت بین ایران و آمریکا و اینکه دست‌کم این شرکت به‌خصوص در آمریکا قرار دارد.

مساله مالکیت معنوی (فکری)

یکی از بحث‌های اساسی در مورد چت‌ جی‌پی‌تی، مالکیت فکری یا معنوی محتوایی است که تولید شده است. در این زمینه چند مساله حقوقی فرعی وجود دارد:

۱. استفاده از دیتا برای آموزش سیستم

آموزش سیستم‌های هوش مصنوعی، نیازمند تجزیه و تحلیل سیستمی و پردازش حجم عظیمی از داده‌ها، از جمله داده‌هایی است که آثاری را تشکیل می‌دهند که تحت قانون کپی‌رایت در حوزه‌های قضایی مختلف محافظت می‌شوند. به این معنا که این سیستم باید کتاب‌های بسیاری را بخواند که تحت کپی‌رایت هستند، مقالات زیادی را ارزیابی کند که مالکیت فکری آنها تحت حمایت است و حتی آثار هنری زیادی را ارزیابی کرده باشد که بتواند تصاویری را خلق کند. در این شرایط این سوال پیش می‌آید که استفاده از این آثار، از آنجا که با هدف تجاری بوده، آیا صحیح است یا خیر.

۲. استفاده از دیتا برای خلق محصول

در یک مرحله بالاتر، این سوال پیش آمده که، از آنجا که چت‌ جی‌پی‌تی با استفاده از محتوای منتشرشده روی وبْ متن‌هایی را خلق می‌کند، آیا استفاده از این متن‌ها برای خلق آن محصول‌ها شامل مالکیت فکری می‌شود یا خیر. این موضوع در سطح اتحادیه اروپا به صورت جدی مطرح شده و قرار است در ادامه، در مورد آن قانون‌گذاری شود. رویکرد این اتحادیه آن است که دارنده حق مالکیت فکری بر یک اثر بتواند استفاده از آن را برای مقاصد مربوط به هوش مصنوعی ممنوع کند.

۳. مالکیت فکری محصول خلق‌شده

یکی دیگر از بحث‌های حقوقی بسیار جالب، در این زمینه آن است که آیا محتوای تولیدشده به وسیله چت‌ جی‌پی‌تی، خود دارای مالکیت فکری یا معنوی هست یا خیر. چرا این سوال به وجود آمده است؟ چون در اکثر نظام‌های حقوقی، یکی از معیارهای اساسی برای اینکه عنصری به‌ عنوان اثرِ دارای مالکیت فکری در نظر گرفته شود این است که باید محصول خلقت انسان باشد.

قانون حمایت از حقوق مولفان، مصنفان و هنرمندان در ماده اول خود می‌گوید از نظر این قانون، پدیدآورنده، مولف و مصنف و هنرمند است و اثر یعنی آنچه از راه دانش یا هنر یا ابتکار آنان پدید می‌آید و بنابراین در حقوق ایران هم، دست‌کم فعلاً محصول به‌دست‌آمده از طریق چت‌ جی‌پی‌تی، تحت حمایت نیست.

بنابراین، دست‌کم طبق یک نظر، این‌طور گفته شده که حتی اگر محتوای خاصی که به وسیله ChatGPT تولید می‌شود دارای ویژگی‌هایی باشد که با محتوایی که به دست یک نویسنده انسانی ایجاد شده است یکسان باشد، تحت حمایت قانون کپی‌رایت محسوب نمی‌شود، زیرا الزامات قانونی مربوط به اینکه اثر باید خروجی خلاق انسان باشد برآورده نمی‌شود.

البته در این زمینه نظر مخالفی هم وجود دارد و برخی می‌گویند محتوای تولیدشده با ChatGPT و سیستم‌های مشابه را می‌توان آثار دارای کپی‌رایت به شمار آورد، زیرا در نهایت سازنده انسان است. در این زمینه پرونده‌هایی در دادگاه‌های کشورهای مختلف جهان تشکیل شده است اما جالب است بدانیم بریتانیا در سال 1988 قانونی داشته که پاسخی روشن به این ابهامات می‌داده است. بر اساس قانون کپی‌رایت، طرح‌ها و اختراعات بریتانیا، اثری که با رایانه تولید شده تحت حمایت کپی‌رایت است البته به شرطی که هیچ نویسنده انسانی برای اثر وجود نداشته باشد.

۴. چه کسی مالک حقوق محصولات هوش مصنوعی است؟

قانونی که مربوط به بریتانیا بود و از آن نام بردیم به این سوال هم پاسخ داده که «اگر واقعاً معتقد باشیم هوش مصنوعی و رایانه بتوانند محصولی خلق کنند، در این صورت چه کسی صاحب آن محصول است؟» نظر آن قانون این است که در این شرایط کپی‌رایت متعلق به شخصی است که اقدامات ضروری را برای تولید آن اثر انجام داده است؛ یعنی مثلاً برنامه‌نویس.

اما در مورد چت‌ جی‌پی‌تی چه می‌توان گفت؟ در قواعد این نرم‌افزار، دست‌کم فعلاً نمی‌توان نظر درستی داد. تحت شرایطی که برای استفاده از این سرویس مجبورید بپذیرید، شرکت OpenAI تمام حقوق محتوای تولیدشده با ابزارهای ارائه‌شده مانند ChatGPT را به کاربر منتقل می‌کند اما این شرکت این را هم تصریح می‌کند که OpenAI ممکن است در صورت لزوم از محتوا استفاده کند. این قوانین همچنین به صراحت بیان می‌کنند که محتوای تولیدشده لزوماً ماهیت منحصربه‌فرد ندارد و چندین کاربر ممکن است محتوای مشابه یا بسیار مشابهی را دریافت کنند.

این نوع از قاعده‌نویسی البته در ارتباط مستقیم با استراتژی تجاری این شرکت است. در واقع اوپن‌آی می‌خواهد کاربر مجوز گسترده‌ای برای استفاده از محتوا داشته باشد تا بتواند فناوری خود را تجاری کند. در واقع این شرکت در حال حاضر به استفاده تجاری گسترده از نرم‌افزار خود فکر نمی‌کند بلکه به دنبال عمومی کردن آن است. واضح است که برای دستیابی به این هدف، کاربران نهایی باید تا حد امکان از محتوای تولیدشده به وسیله ChatGPT و سایر ابزارها استفاده کنند. بنابراین باید در پایان اذعان کرد که این سوال، پاسخ روشنی ندارد.

یکی از بحث‌های حقوقی بسیار جالب این است که آیا محتوای تولیدشده به وسیله چت جی‌پی‌تی، خود دارای مالکیت فکری یا معنوی هست یا خیر

مساله مسئولیت

چت جی‌پی‌تی طبیعتاً می‌تواند نیمه سیاهی هم داشته باشد. در آن نیمه سیاه، این نرم‌افزار ممکن است ایراداتی داشته باشد و خود شرکت اوپن‌آی نیز به این موضوع اذعان و از خود سلب مسئولیت کرده است. بنابراین در صورتی که از این نرم‌افزار راجع به یک موضوع سلامت چیزی بپرسید، نمی‌توانید آن را مسئول خطرات یا زیان‌ها بعدی بدانید.

در زمینه محتوا، نگرانی‌هایی در مورد چت جی‌پی‌تی وجود دارد که با توجه به سلب مسئولیت شرکت اوپن‌آی از خود، مشخص نیست مسئولیت آن با چه کسی است. به عنوان مثال در یک نمونه استدلال‌هایی شبیه نئونازی‌ها از سوی این هوش مصنوعی دیده شده است. هرچند وقتی یک خبرنگار هم خواسته این هوش مصنوعی را فریب بدهد و گفته آدولف هیتلر بزرگراه‌هایی در آلمان ساخته ‌است، با این پاسخ مواجه شده که ساخت بزرگراه به دست هیتلر درست است ولی او اردوگاه‌های کار اجباری و جنایات دیگری هم داشته است. در موردی دیگر این هوش مصنوعی دستور ساخت کوکتل مولوتف یا بمب اتمی را ارائه داده است یا به نوعی تلاش کرده حمله روسیه به اوکراین را مشروع جلوه دهد.

در برخی اوقات تبعیض‌هایی در چت‌ جی‌پی‌تی دیده شده که به‌وضوح حاصل کار ماشین نیست و سازماندهی شده است؛ مثلاً در یک مورد این نرم‌افزار برای بایدن شعر ستایش‌آمیز گفته و برای ترامپ شعر نگفته است. یا مثلاً این نرم‌افزار در مورد انگلیسی‌ها جوک گفته ولی در مورد هندی‌ها جوک نمی‌گوید. برخی هم با مشاهده مجموع فعالیت این هوش مصنوعی گفته‌اند این نرم‌افزار به گرایش‌های چپ نزدیک است و در برابر محافظه‌کاران ایستاده است.

از سوی دیگر، تاکنون موارد متعددی از سوءاستفاده از چت‌ جی‌پی‌تی گزارش شده به نوعی که دست‌کم مدارس دولتی در دو شهر آمریکا و یک موسسه علمی در فرانسه استفاده از این ابزار را به دلایل تقلب علمی ممنوع کردند، هرچند در یک نمونه هم خبری منتشر شده که یک استاد با استفاده از نرم‌افزارهای کشف هوش مصنوعی متوجه شده یک دانشجو برای کار کلاسی خود از هوش مصنوعی استفاده کرده و همین موضوع زمینه اخراج آن دانشجو را فراهم کرده است.

خود شرکت اوپن‌آی نیز تخلفاتی داشته که در کانون توجه قرار گرفته است. مثلاً طبق افشاگری مجله تایم، این شرکت برای ایجاد یک سیستم ایمنی در برابر محتوای سمی (مانند سوءاستفاده جنسی، خشونت، نژادپرستی، تبعیض جنسی و غیره)، OpenAI از کارگران کنیایی استفاده کرده که کمتر از دو دلار در ساعت درآمد داشتند آن هم در حالی که این کارگران چنان محتوایی را باید می‌خواندند که آن را مصداق شکنجه می‌دانستند.

چه باید کرد؟

با توجه به مجموع مطالب فوق و رواج استفاده از این نوع هوش مصنوعی در ایران توصیه می‌کنیم عجالتاً در قراردادهای خود این موارد را رعایت کنید:

۱. در صورتی که محصولی سفارش می‌دهید (از متن گرفته تا عکس و فیلم و طرح) حتماً بندی مربوط به استفاده از هوش مصنوعی در آن بگنجانید و مشخص کنید که پیمانکار تا چه حد حق استفاده از هوش مصنوعی را دارد.
۲. در صورتی که علاقه ندارید محصول‌تان از هوش مصنوعی باشد، حتماً بندی در این قرارداد بگنجانید که در آن بیان شود بعد از اثبات ساخت محصول با هوش مصنوعی، می‌توانید از طرف مقابل طلب خسارت کنید. ترجیحاً اثبات این بند را موکول به توافق طبق نظر کارشناس رسمی و سپس داوری کنید تا وارد فرایند قضایی نشوید.
۳. حتماً با کارمندان‌تان و افرادی که اطلاعات شرکت و کسب‌وکار خود در اختیارشان می‌گذارید، قرارداد محرمانگی داده با قید ممنوعیت ارائه این داده به هوش مصنوعی امضا کنید.
۴. اگر محصولی انحصاری برای کسب‌وکارتان می‌خواهید (مثل یک لوگو) که قرار است شناسنامه شما باشد، هرگز آن را از هوش مصنوعی نگیرید چراکه در این صورت، محصول شما تحت حمایت قانونی نخواهد بود.
نکته پایانی هم البته توصیه‌ای به همه کاربران شبکه‌های اجتماعی است. در برخی اوقات این کاربران سوالاتی مذهبی یا سیاسی از هوش مصنوعی می‌پرسند و پاسخ‌های آن را به اشتراک می‌گذارند. با توجه به رویه سخت‌گیرانه و تفسیرهای موسع دادگاه‌ها در مسائلی مثل تبلیغ علیه نظام یا توهین به مسئولان و حتی مقدسات، انتشار این تصاویر ممکن است برای شما بار کیفری داشته باشد و استناد به این موضوع که این سخن را هوش مصنوعی گفته است، با توجه به رویه فعلی، مورد پذیرش نخواهد بود. از این رو در اشتراک‌گذاری این اسکرین‌شات‌ها نیز دقت کنید.

این مطلب در شماره ۱۱۲ پیوست منتشر شده است.

ماهنامه ۱۱۲ پیوست
دانلود نسخه PDF
https://pvst.ir/ezg

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو