هوش مصنوعی مانند حیوانات به حفاظت اخلاقی نیاز دارد

هوش مصنوعی مانند حیوانات به حفاظت اخلاقی نیاز دارد

دانشگاه‌های متعددی در سرتاسر جهان پیرامون هوش مصنوعی تحقیق می‌کنند. شرکت‌ها و سازمان‌هایی همچون Allen Institute و غول‌های فناوری همچون گوگل و فیسبوک را هم به فهرست محققان این حوزه‌ اضافه کنید. نتیجه‌ی تحقیقات همه‌جانبه، به احتمال زیاد در آینده‌ی نزدیک به ظهور یک هوش مصنوعی می‌انجامد که از لحاظ پیچیدگی ادراک و شناخت، نزدیک به حیواناتی همچون موش و سگ خواهد بود. اکنون نوبت به این مسئله رسیده است که چرایی و چگونگی اجرای حفاظت‌های اخلاقی را برای هوش مصنوعی بررسی کنیم. آیا هوش مصنوعی نیز استحقاق حفاظت‌های قانونی اهداشده به حیوانات را دارد؟

بحث‌هایی که تاکنون پیرامون «حقوق هوش مصنوعی» یا «حقوق ربات‌ها» بیان شده‌اند، عموما به تعهدات و وظایف اخلاقی هوش مصنوعی با هوشیاری در سطح انسان یا بالاتر اشاره دارند. به‌عنوان مثال می‌توان به نمونه‌های سینمایی همچون حقوق درویدها در سری فیلم‌های استار ترک یا شخصیت دولورس در سریال وست‌ورلد اشاره کرد. منتهی تفکر در این مسیر، ظاهرا شروع صحیحی برای بررسی چالش نخواهد بود و شاید پیامدهای اخلاقی عظیمی به‌همراه داشته باشد.

مقاله‌های مرتبط:

بشر احتمالا در آینده‌ی بسیار نزدیک به هوش مصنوعی با پیچیدگی هوش انسانی دست پیدا نخواهد کرد؛ هوشی که نیازمند بررسی‌های اخلاقی شبیه به انسان باشد. ازطرفی، ساختن هوش مصنوعی با پیچیدگی نزدیک به هوشی پایین‌تر از انسان، دور از انتظار نیست. درنتیجه باید ملاحظاتی با سطح پایین‌تر از مسائل اخلاقی انسانی برای آن‌ها در نظر گرفته شود.

امروزه احتیاط بالایی پیرامون چگونگی انجام تحقیق با استفاده از حیوانات مدنظر قرار می‌گیرد. به‌عنوان مثال کمیته‌های حفاظت از حیوانات، پروپوزال‌های تحقیقی را بررسی می‌کنند تا هیچ‌گونه کشتار یا شکنجه‌ی غیرالزامی در جریان تحقیقات روی آن‌ها انجام نشود. اگر در برخی از تحقیقات پزشکی، سلول‌های بنیادی انسانی یا مهم‌تر از آن، سلول‌های مغزی انسانی دخیل باشند، نظارت و بازرسی‌های عمیق‌تر نیز می‌شود. درواقع تحقیقات زیست پزشکی تحت بررسی‌های موشکافانه‌ی عمیقی انجام می‌شوند. درمقابل، تحقیقات هوش مصنوعی که شاید مستلزم برخی از همان ریسک‌های اخلاقی بالا باشند، تحت هیچ‌گونه بررسی قانونی یا سازمانی قرار ندارند. برخی کارشناسان می‌گویند شاید این تحقیقات هم به چارچوب‌های اخلاقی بیشتر نیاز داشته باشند.

موش

در نگاه اول به‌نظر می‌رسد هوش مصنوعی تا زمان دستیابی به هوشیاری واقعی، نیازی به حفاظت‌های اخلاقی نداشته باشد. منظور از هوشیاری واقعی، جریانی هوشمندانه از تجربه با لذت و رنج واقعی است. چنین تصوری منطقی به‌نظر می‌رسد، اما به‌هرحال یک سؤال بی‌پاسخ در آن وجود دارد: ما چگونه می‌توانیم از ساختن هوشی با توانایی تجربه‌ی واقعی مطمئن شویم؟ بله، اگر هوش مصنوعی ساخته‌شده مانند دولورس یا دیگر شخصیت‌های فیلم و سریال باشد، توانایی شکایت کردن و دفاع کردن از خود را خواهد داشت و قطعا پیرامون حقوق خود، بحث و مجادله می‌کند. ازطرفی اگر هوش مصنوعی توانایی تکلم را نداشته (مانند موش و سگ) یا به‌هر دلیلی قادر به ابراز نظر پیرامون حالت‌های درونی خود نباشد، توانایی اعلام رنج کشیدن را نیز نخواهد داشت.

چالشی که در بالا مطرح شد، یک پیچیدگی را در بررسی‌ها پیرامون هوش مصنوعی ایجاد می‌کند. مطالعات علمی پرامون هوشیاری، هنوز اجماعی برای تعریف هوشیاری ندارند. درواقع هنوز نمی‌توانیم وجود یا عدم وجود هوشیاری را تعریف کنیم.

چالش اصلی، نبودن اجماعی برای تعریف هوشیاری است

هوشیاری در برخی از دیدگاه‌های لیبرال تنها نیازمند توانایی پردازش اطلاعات با سازمان‌دهی مناسب است. به‌عنوان مثال می‌توان به مدل‌های اطلاعاتی انعطاف‌پذیر یک سیستم در ارتباط با اجسام موجود در محیط اشاره کرد؛ مدل‌هایی که دارای ظرفیت‌های هدایت‌شده‌ی توجه و برنامه‌‌ریزی‌های عملیاتی بلندمدت هستند. دنیای علم احتمالا در شُرف دستیابی به چنین هوشیاری قرار دارد.

تعریف هوشیاری در دیدگاه‌های محافظه‌کارانه نیازمند قابلیت‌های زیستی خاصی است. به‌عنوان مثال می‌توان به مغزی شبیه به مغز پستانداران با جزئیات ساختاری سطح پایین‌تر اشاره کرد. قطعا پیشرفت‌های علمی حتی به ساختن چنین هوشیاری نزدیک هم نشده‌اند.

صحت هیچ‌یک از اظهارنظرهای بالا قابل تأیید یا رد نیست و نمی‌توان هیچ‌کدام را بر دیگری برتر دانست. ازطرفی اگر دیدگاه لیبرال را صحیح در نظر بگیریم، به‌زودی توانایی ساخت هوش مصنوعی پایین‌تر از انسان را در مقیاس فراوان خواهیم داشت که به حفاظت اخلاقی نیاز دارند. ریسک اخلاقی در همین شرایط خود را نشان می‌هد.

هوش مصنوعی

خطر هوش مصنوعی

مبحث پیرامون ریسک‌ها و خطرهای هوش مصنوعی، عموما روی ریسک‌های متمرکز می‌شوند که شاید فناوری‌های هوش مصنوعی جدید برای انسان‌ها ایجاد کنند. به‌عنوان مثال می‌توان به همان داستان‌های علمی-تخیلی اشغال جهان و ازبین‌بردن نژاد بشر اشاره کرد. در بهترین حالت نیز ریسک در دست گرفتن کنترل نظام‌هایی همچون نظام بانکی مطرح می‌شود. خطر انسان برای هوش مصنوعی ازطریق بدرفتاری با آن‌ها، عموما در مباحث پیرامون خطرها مطرح نمی‌شود. 

در هیچ‌یک از مباحث، خطر انسان برای هوش مصنوعی بررسی نمی‌شود

شاید بررسی کنونی شبیه به داستان‌های علمی-تخیلی باشند. ازطرفی محققان و جامعه‌ی فعال هوش مصنوعی در مسیر توسعه‌ی هوش مصنوعی هوشیار یا سیستم‌های هوش مصنوعی عظیم هستند. به همین دلیل احتمالا دستیابی به سیستم کاملا هوشیار رخ خواهد داد و باید جنبه‌های اخلاقی آن نیز در نظر گرفته شود. تحقیقات در آن حوزه، نیازمند بررسی‌های موشکافانه‌ی اخلاقی هستند که شبیه به بررسی‌های انجام‌شده در ارتباط با تحقیق روی حیوانات یا نمونه‌هایی از بافت‌های عصبی انسان هستند. 

حفاظت‌های مناسب اخلاقی از نمونه‌های حیوانی و انسانی در تحقیقات زیست‌پزشکی، زمانی پیاده‌سازی شدند که اولین تخلفات جدی اخلاقی در تحقیقات فاش شدند. به‌عنوان مثال می‌توان به تشریح غیرالزامی حیوانات زنده، جرم‌های جنگی نازی‌ها در حوزه‌ی پزشکی و تحقیقات بحث‌برانگیز دانشگاه تاسکیگی آمریکا روی بیماری سفلیس اشاره کرد.

هوش مصنوعی

دستیابی به هوشیاری مصنوعی واقعی، دور از انتظار نخواهد بود

باتوجه به رخدادهای پیش‌آمده در گذشته، احتمالا محققان امروزی شانس عملکرد بهتر را نسبت به هوش مصنوعی دارند. به‌عنوان راهکارهای کاربردی می‌توان به راه‌اندازی کمیته‌های نظارتی برای بررسی و اعتبارسنجی تحقیقات هوش مصنوعی اشاره کرد. کمیته‌های آن‌چنانی دقیقا مانند کمیته‌های نظارت بر تحقیقات حیوانی یا سلول‌های بنیادی، باید ترکیبی از اعضای دانشمند و غیر دانشمند داشته باشند. طراحان هوش مصنوعی، محققان هوشیاری، اخلاق‌شناسان و اعضای علاقه‌مند به مباحث مذکور، باید در کمیته‌های نظارتی حضور داشته باشند.

کمیته‌های نظارت بر تحقیقات هوش مصنوعی، موظف به تشخیص و بررسی ریسک‌های اخلاقی طراحی‌های جدید در حوزه‌ی هوش مصنوعی خواهند بود. آن‌ها باید دارای درکی پیچیده و عمیق از مشکلات اخلاقی و علمی پیش‌رو باشند. درواقع اعضای ناظر باید بتوانند چالش‌ها و ریسک‌های اخلاقی را در برابر مزیت پیش‌برد تحقیقات، مقایسه و تحلیل کنند.

اگر زمانی کمیته‌های نظارت بر تحقیقات هوش مصنوعی تشکیل شوند، احتمالا داوری بر تمامی تحقیقات موجود در این حوزه را در دست خواهند گرفت. البته اکنون هیچ‌یک از تحقیقات ما براساس هیچ تعریفی از هوشیاری به هوشیاری واقعی نزدیک نشده‌اند، اما احتمال دستیابی به آن دور از ذهن نیست. درنتیجه شاید بهتر باشد پیش از رد شدن از مرز اخلاقی و ساختن هوشیاری واقعی، برای کنترل چالش‌های اخلاقی آن آماده باشیم.

برچسب ها :
زومیتهوش مصنوعی

درباره محمد حسینی راد

چند سالی هست که در دنیای دیجیتال مشغول فعالیتم. کارشناسی ارشد نرم افزار خوندم و از اینکه دارم مطالب مرتبط با زمینه کاری خودم را انتشار می دهم بسیار خرسندم.

نظر بدهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *