skip to Main Content
محتوای اختصاصی کاربران ویژهورود به سایت

فراموشی رمز عبور

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ عضو شوید

ثبت نام سایت

با شبکه های اجتماعی وارد شوید

عضو نیستید؟ وارد شوید

فراموشی رمز عبور

وارد شوید یا عضو شوید

جشنواره نوروزی آنر

کتاب دانشنامه فلسفه هوش مصنوعی استنفورد : از اخلاق و حقوق این فناوری تا آینده آن

۱۶ فروردین ۱۴۰۴

زمان مطالعه : ۸ دقیقه

هوش مصنوعی، از رؤیای فیلسوفان قرون گذشته تا واقعیت‌های حیرت‌انگیز قرن بیست‌ویکم، اکنون به یکی از تأثیرگذارترین و در عین حال پیچیده‌ترین حوزه‌های علمی و فناورانه بدل شده است. کتاب دانشنامه استنفورد در حوزه هوش مصنوعی با نگاهی تحلیلی، تاریخی و فلسفی به سراغ این پدیده رفته و تصویری جامع از سیر تحول، چالش‌ها و چشم‌اندازهای آن ترسیم می‌کند.

هوش مصنوعی به‌صورت رسمی در تابستان ۱۹۵۶، در کنفرانس تاریخی دارتموث متولد شد. جایی که چهره‌های برجسته‌ای مانند جان مک‌کارتی، کلود شانون و ماروین مینسکی گردهم آمدند تا پایه‌های یک علم جدید را بگذارند. یکی از نخستین دستاوردهای این رویداد، برنامه Logic Theorist بود که می‌توانست گزاره‌های ریاضی را اثبات کند. اما ریشه‌های مفهومی این حوزه به ایده‌های فیلسوفانی چون دکارت و نظریه‌پردازی‌های آلن تورینگ بازمی‌گردد که پیش از ظهور رایانه‌ها، از هوش ماشینی سخن گفته بودند.

پیروزی‌های چشمگیر، اما محدود

از شکست دادن قهرمان شطرنج جهان توسط دیپ بلو گرفته تا برد چشمگیر آلفاگو در بازی Go، دستاوردهای هوش مصنوعی چشمگیر بوده‌اند. اما همه این سیستم‌ها تنها در حوزه‌های خاص عملکرد دارند. برخلاف انسان، آن‌ها توانایی انتقال دانش، درک زبان به‌صورت عمیق یا استدلال عرفی ندارند. این تفاوت مهم، مرز بین هوش مصنوعی خاص و هوش عمومی را تعیین می‌کند.

چالش‌های هوش انسانی برای ماشین‌ها

با وجود پیشرفت‌های خیره‌کننده، هوش مصنوعی هنوز در برابر مفاهیم ساده‌ای چون درک کنایه یا تصمیم‌گیری در موقعیت‌های مبهم، ناتوان است. چالش‌هایی مانند یادگیری انتقالی، فهم واقعی زبان، و استدلال با عقل سلیم، مسیر رسیدن به هوش عمومی (AGI) را پر از ابهام کرده‌اند.

برخلاف علوم کلاسیکی چون فیزیک، تعریف دقیقی برای هوش مصنوعی وجود ندارد. متخصصان، این فناوری را نه از راه تعاریف ثابت، بلکه از طریق قابلیت‌هایش می‌سنجند. از شبیه‌سازی تفکر انسانی گرفته تا دستیابی به رفتار عقلانی، دیدگاه‌های مختلفی در این حوزه شکل گرفته‌اند. چارچوب راسل و نورویگ، با تأکید بر رفتار عقلانی و فرآیندهای ذهنی، چهار رویکرد اصلی را معرفی می‌کند که نشان از تنوع و پویایی نظری در این حوزه دارد.

روش‌ها و مسیرها: منطق، آمار و شبکه‌های عصبی

در دل هوش مصنوعی، روش‌های متنوعی برای حل مسائل توسعه یافته‌اند. از سیستم‌های مبتنی بر منطق که قواعد را به‌دقت دنبال می‌کنند، گرفته تا شبکه‌های عصبی که با الگوریتم‌های یادگیری، تصاویر و گفتار را تشخیص می‌دهند. روش‌های آماری نیز در مواجهه با داده‌های نامطمئن، کاربرد زیادی پیدا کرده‌اند. اما هر کدام از این روش‌ها، در برابر پیچیدگی واقعیت‌های انسانی با محدودیت‌هایی مواجه‌اند.

در پاسخ به محدودیت‌های هر رویکرد، پژوهشگران به تلفیق تکنیک‌ها روی آورده‌اند. پروژه‌هایی مانند واتسون IBM یا معماری Soar با بهره‌گیری از ترکیب منطق، آمار و یادگیری ماشینی، توانسته‌اند عملکرد پیچیده‌تری ارائه دهند. با این حال، همچنان در برابر درک عمیق و تطبیق‌پذیری انسانی، فاصله زیادی دارند.

آینده‌ای میان علم، فلسفه و شناخت

هوش مصنوعی تنها یک شاخه مهندسی نیست؛ بلکه در تلاقی با فلسفه و علوم شناختی قرار دارد. پرسش‌هایی چون «آیا ماشین‌ها واقعاً می‌فهمند؟» یا «آیا تقلید رفتار انسان به معنای هوشمندی است؟» همچنان بی‌پاسخ مانده‌اند. کتاب دانشنامه استنفورد، ضمن بررسی علمی این فناوری، ما را با این پرسش‌های عمیق مواجه می‌کند و نشان می‌دهد که در مسیر خلق هوش عمومی، بیش از آنکه به جواب رسیده باشیم، تازه در آغاز راه پرسشگری هستیم.

هوش مصنوعی اخلاقی (Moral AI)
در یکی از فصل‌های این فصل، به مفهوم هوش مصنوعی اخلاقی پرداخته می‌شود که با شاخه‌های اخلاق کامپیوتری و اخلاق ربات‌ها تفاوت دارد. هدف این است که ماشین‌ها بتوانند تصمیمات اخلاقی پیچیده و مستقل بگیرند، تصمیماتی که ممکن است از نظر اخلاقی مجاز یا غیرمجاز باشند. به این ترتیب، ماشین‌ها نیاز دارند که یک کد اخلاقی داشته باشند که به‌وسیله منطق‌های دئانتیک تحلیل شود. این منطق به تصمیم‌گیری‌های اخلاقی کمک می‌کند تا ماشین‌ها در شرایط مختلف به‌طور صحیح عمل کنند. علاوه بر مسائل کشنده، مسائل غیرکشنده مانند دروغ گفتن نیز در نظر گرفته می‌شود. این حوزه هنوز در مراحل اولیه خود است، اما با توجه به پیشرفت‌های هوش مصنوعی و افزایش خودمختاری ربات‌ها، به نظر می‌رسد که در آینده اهمیت بیشتری پیدا کند.

 هوش مصنوعی فلسفی (Philosophical AI)

همچنین این کتاب به تفاوت «هوش مصنوعی فلسفی» و «فلسفه هوش مصنوعی» پرداخته است. در حالی که فلسفه هوش مصنوعی به سوالاتی نظیر امکان دستیابی هوش مصنوعی به سطح هوش انسانی می‌پردازد، هوش مصنوعی فلسفی به‌طور خاص از ابزارها و تکنیک‌های فلسفه برای حل مسائل هوش مصنوعی استفاده می‌کند. محققان در این رویکرد از فلسفه برای حل پارادوکس‌ها و مسائل فلسفی استفاده می‌کنند و سپس این راه‌حل‌ها را به کدهای برنامه‌نویسی تبدیل می‌کنند. این روش به‌طور همزمان هم فلسفی و هم فنی است، که در پروژه‌هایی مانند پروژه OSCAR جان پولاک به‌وضوح دیده می‌شود. با این حال، این رویکرد محدود به راه‌حل‌های مکانیکی است و نمی‌تواند تمام جنبه‌های هوش را در نظر بگیرد.

این فصول نشان می‌دهند که فلسفه و اخلاق می‌توانند در کنار هوش مصنوعی به‌طور عمیق و پیچیده‌ای تعامل داشته باشند و پیشرفت در این زمینه‌ها می‌تواند به تغییرات عمده‌ای در آینده هوش مصنوعی منجر شود.

فلسفه هوش مصنوعی

این کتاب سعی کرده است که به مباحث فلسفی مرتبط با هوش مصنوعی بپردازد و تفاوت‌های اساسی بین “هوش مصنوعی قوی” و “ضعیف” توضیح داده می‌شود.

هوش مصنوعی “قوی” در مقابل “ضعیف”


هوش مصنوعی “قوی” به دنبال ساخت ماشین‌هایی است که تمام توانایی‌های ذهنی انسان‌ها را داشته باشند، از جمله آگاهی پدیداری. در حالی که هوش مصنوعی “ضعیف” هدفش ساخت ماشین‌هایی است که به نظر برسد توانایی‌های ذهنی انسان را دارند، بدون اینکه این توانایی‌ها واقعی باشند. در اینجا اشاره به آزمون‌های تورینگ و آزمون تورینگ کامل می‌شود که در آن ماشین‌ها باید در تمام رفتارهای انسانی شبیه‌سازی شوند.

 استدلال اتاق چینی علیه “هوش مصنوعی قوی”
استدلال اتاق چینی جان سیرل بیان می‌کند که حتی اگر یک ماشین بتواند به طور صحیح به زبان چینی پاسخ دهد، باز هم نمی‌توان گفت که آن ماشین واقعاً زبان چینی را درک می‌کند. این استدلال هدفش این است که نشان دهد ماشین‌ها نمی‌توانند درک واقعی و آگاهی از آنچه که انجام می‌دهند داشته باشند.

۸.۳ استدلال گودلی علیه “هوش مصنوعی قوی”
ج. آر. لوکاس و راجر پنروز استدلال می‌کنند که هیچ ماشینی نمی‌تواند به سطح هوش انسانی برسد، زیرا بر اساس قضیه ناتمامی گودل، برخی مسائل ریاضی وجود دارند که هیچ سیستم رسمی نمی‌تواند آن‌ها را حل کند. این استدلال به عنوان یک چالش برای هوش مصنوعی قوی مطرح می‌شود.

۸.۴ موضوعات اضافی و منابع در فلسفه هوش مصنوعی
در این بخش، نقدهای دیگری بر هوش مصنوعی قوی، به‌ویژه دیدگاه هیوبرت دریفوس، مطرح می‌شود که معتقد است انسان‌ها از تجربه‌های غیررسمی و شهودی برای حل مسائل استفاده می‌کنند و این امر باعث می‌شود که هوش مصنوعی نتواند به طور کامل هوش انسانی را شبیه‌سازی کند.

این فصل به‌طور کلی بررسی می‌کند که آیا ماشین‌ها می‌توانند به سطح هوش انسانی برسند و چالش‌های فلسفی و منطقی مختلفی که در این زمینه وجود دارند.

 آینده

اگر پیش‌بینی‌های گذشته را معیار قرار دهیم، تنها چیزی که امروز درباره علم و فناوری فردا می‌دانیم این است که آنچه در آینده می‌بینیم، به‌طور بنیادی متفاوت از پیش‌بینی‌هایی است که امروز داریم. به‌ویژه در مورد هوش مصنوعی، می‌توان گفت که پیشرفت‌ها احتمالاً کندتر از آن چیزی خواهد بود که بیشتر افراد انتظار دارند. برای مثال، در کنفرانس آغازین ۱۹۵۶ که در ابتدای این کتاب بحث شد، هرب سایمون پیش‌بینی کرد که ماشین‌های تفکر قادر به مطابقت با ذهن انسان «در گوشه و کنار» قرار دارند. اما در نهایت، قرن جدید آغاز شد بدون اینکه حتی یک ماشین قادر به برقراری مکالمه در سطح یک کودک نوپا وجود داشته باشد. در حالی که بسیاری از پژوهشگران در اواخر قرن بیستم پیش‌بینی‌های فوق‌العاده خوش‌بینانه‌ای درباره پیشرفت‌های هوش مصنوعی مطرح کردند، به‌ویژه هانس موراوک در کتاب خود “ربات: ماشین ساده یا ذهن متعالی” از پیش‌بینی‌هایی سخن گفت که بر اساس قانون مور (افزایش سرعت سخت‌افزار کامپیوتری هر ۱۸ ماه دو برابر می‌شود) روبوت‌های نسل چهارم را پیش‌بینی می‌کند که در همه زمینه‌ها از انسان‌ها پیشی خواهند گرفت، از جمله در اداره شرکت‌ها و نوشتن رمان‌ها.

یکی از مفاهیم مهم مطرح در این زمینه، “سینگولاریتی” (نقطه‌ای که هوش مصنوعی از هوش انسانی فراتر می‌رود) است. برخی معتقدند که هوش مصنوعی به مرحله‌ای خواهد رسید که قادر است خود را به‌طور تصاعدی هوشمندتر کند و به سطحی از هوش فرابشری برسد که انسان‌ها قادر به درک آن نباشند. این امر موضوعی است که بسیاری از فیلسوفان و پژوهشگران به آن پرداخته‌اند. یکی از استدلال‌های مهم در این زمینه، نظریه‌ای است که توسط ای. جِی. گود مطرح شده است: اینکه هوش مصنوعی ابتدا توسط انسان‌ها ساخته می‌شود، سپس خود هوش مصنوعی قادر خواهد بود هوش مصنوعی فراتر از سطح انسانی بسازد، و این فرآیند به‌طور تصاعدی ادامه خواهد یافت تا جایی که به سطحی فرابشری برسد.

در حالی که این پیش‌بینی‌ها بسیار بحث‌برانگیز هستند، نگرانی‌هایی نیز وجود دارد که این هوش مصنوعی پیشرفته ممکن است تهدیدی برای بشریت ایجاد کند. برخی از پژوهشگران مانند بیل جی در مقاله خود با عنوان “چرا آینده به ما نیاز ندارد” هشدار داده‌اند که فناوری‌های قدرتمندی مانند رباتیک و نانو تکنولوژی می‌توانند به تهدیداتی جدی برای انسان‌ها تبدیل شوند.

اما از طرف دیگر، افرادی مانند جان سرل باور دارند که نباید نگران هوش مصنوعی پیشرفته باشیم، زیرا این ماشین‌ها به هیچ‌وجه آگاهی یا انگیزه‌های انسانی نخواهند داشت و بنابراین تهدیدی واقعی برای بشریت ایجاد نمی‌کنند.

این مباحث نشان می‌دهند که آینده هوش مصنوعی نه تنها به پیشرفت‌های علمی وابسته است، بلکه نیازمند تفکر فلسفی عمیق نیز می‌باشد. پژوهشگران باید نه تنها به توسعه فناوری‌های جدید توجه کنند، بلکه باید به سوالات فلسفی پیچیده‌ای نیز که در مورد امکان یا عدم امکان دستیابی به هوش مصنوعی انسان‌گونه مطرح می‌شود، پاسخ دهند.

https://pvst.ir/l4g

0 نظر

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

*

برای بوکمارک این نوشته
Back To Top
جستجو