اخلاق ربات
این مقاله دقیق، کامل و صحیح ترجمه نشده و نیازمند ترجمه به فارسی است. کل یا بخشی از این مقاله به زبانی بهجز زبان فارسی نوشته شدهاست. اگر مقصود ارائهٔ مقاله برای مخاطبان آن زبان است، باید در نسخهای از ویکیپدیا به همان زبان نوشته شود (فهرست ویکیپدیاها را ببینید). در غیر این صورت، خواهشمند است ترجمهٔ این مقاله را با توجه به متن اصلی و با رعایت سیاست ویرایش، دستور خط فارسی و برابر سازی به زبان فارسی بهبود دهید و سپس این الگو را از بالای صفحه بردارید. همچنین برای بحثهای مرتبط، مدخل این مقاله در فهرست صفحههای نیازمند ترجمه به فارسی را ببینید. اگر این مقاله به زبان فارسی بازنویسی نشود، تا دو هفتهٔ دیگر نامزد حذف میشود و/یا به نسخهٔ زبانی مرتبط ویکیپدیا منتقل خواهد شد. اگر شما اخیراً این مقاله را بهعنوان صفحهٔ نیازمند ترجمه برچسب زدهاید، لطفاً عبارت {{جا:هبک-ترجمه به فارسی|1=اخلاق ربات}} ~~~~ را نیز در صفحهٔ بحث نگارنده قرار دهید. |
اخلاق ربات، که گاهی به عنوان " روبوتیک " شناخته میشود، مربوط به مشکلات و مسایل اخلاقی است که در رابطه با رباتها رخ میدهد، مسایلی مانند این که آیا رباتها در طولانی مدت یا کوتاه مدت تهدیدی برای انسان به حساب میآیند، آیا بعضی از کاربرد های رباتها مشکل ساز هستند (مانند استفاده از رباتها در بهداشت و درمان یا به عنوان "رباتهای قاتل" در جنگ)، و رباتها چگونه باید طراحی شوند که "اخلاقی" عمل کنند (موضوع آخری که مطرح شد اخلاق ماشینی نیز نامیده میشود). متناوباً، روبوتیک بهطور خاص به اصول اخلاقی رفتار انسان نسبت به رباتها اشاره دارد، زیرا رباتها مدام وبه طور فزاینده ای در حال پیشرفت هستند.[۱] اخلاق ربات زیرمجموعه ای از اخلاق فناوری، به ویژه فناوری اطلاعات است و ارتباط تنگاتنگی با موضوعات حقوقی و همچنین اقتصادی-اجتماعی دارد. محققان از مناطق مختلف شروع به حل مسایل اخلاقی در مورد ایجاد فناوری رباتیک و پیادهسازی آن در جوامع میکنند، به روشی که هنوز امنیت نژاد بشر را تضمین میکند.[۲]
در حالی که این موضوعات به اندازه کلمه ربات قدیمی هستند، بحثهای جدی آکادمیک از سال ۲۰۰۰ آغاز شد. اخلاق ربات نیاز به تعهد ترکیبی از متخصصان چندین رشته دارد، متخصصانی که باید قوانین و مقررات را با مشکلات ناشی از دستاوردهای علمی و فناوری در رباتیک و هوش مصنوعی تنظیم کنند. زمینههای اصلی دخیل در اخلاق ربات عبارتند از: رباتیک، علوم کامپیوتر، هوش مصنوعی، فلسفه، اخلاق، الهیات، زیستشناسی، فیزیولوژی، علوم شناختی، علوم اعصاب، حقوق، جامعهشناسی، روانشناسی و طراحی صنعتی.
تاریخ و وقایع
[ویرایش]برخی از بحثهای اصلی اخلاق در رابطه باپرداختن به مسایل غیرانسانی یا غیر بیولوژیکی و «معنویت» بالقوه آنها میباشد. موضوع اصلی دیگر، مربوط به توسعه ماشین آلات و سرانجام رباتها است، این فلسفه در مورد رباتیک نیز استفاده شدهاست. یکی از اولین نشریاتی که بهطور مستقیم به آن پرداخته و بنیان اخلاقی ربات را پایهگذاری کردهاست، دوراهی (داستان) است، یک داستان کوتاه علمی تخیلی که توسط آیزاک آسیموف در سال ۱۹۴۲ نوشته شده و شامل سه قانون رباتیک معروف است. نوشته شده و شامل سه قانون رباتیک معروف است. این سه قانون بهطور مداوم توسط آسیموف تغییر مییافت، و قانون چهارم یا صفر در نهایت به سه قانون اول، در متن کارهای علمی تخیلی او، اضافه شد. اصطلاح کوتاه «روبوتیک» به احتمال زیاد توسط جانمارکو وروجیو ابداع شدهاست.
یک رویداد مهم که نگرانی روبوتیک را برانگیخت، اولین همایش بینالمللی روباتیک در سال ۲۰۰۴ با تلاش مشترک Scuola di Robotica، آزمایشگاه هنر Scuola Superiore Sant'Anna، پیزا، و مؤسسه الهیات Pontificia Accademia della Santa Croce، رم.[۳] "پس از دو روز بحث شدید، انسانشناس Daniela Cerqui سه موضع اخلاقی اصلی را که ناشی از دو روز مناظره پرتنش و شدید بود را شناسایی کرد:
- کسانی که علاقه ای به اخلاق ندارند. آنها فکر میکنند که اقداماتشان کاملاً فنی است و فکر نمیکنند مسئولیت اجتماعی یا اخلاقی در کارشان داشته باشد.
- کسانی که به سوالات اخلاقی کوتاه علاقهمند هستند. مطابق این مشخصات، سوالات به صورت "خوب" یا "بد" بیان میشوند و به برخی از ارزشهای فرهنگی اشاره دارند. به عنوان مثال، آنها احساس میکنند که رباتها باید به قراردادهای اجتماعی پایبند باشند. این شامل "احترام" و کمک به انسان در زمینههای مختلف مانند اجرای قوانین یا کمک به افراد مسن است. (چنین ملاحظاتی مهم است، اما باید بخاطر داشته باشیم که مقادیر استفاده شده برای تعریف "بد" و "خوب" نسبی هستند. آنها ارزشهای معاصر کشورهای صنعتی هستند).
- کسانی که در مورد سوالات اخلاقی بلند و مفصل فکر میکنند، مثلاً دربارهٔ "شکاف دیجیتالی" بین جنوب و شمال، یا پیر و جوان. آنها از شکاف بین کشورهای صنعتی و فقیر آگاه هستند، و تعجب میکنند که آیا کشورهای صنعتی نباید روش خود را در توسعه رباتیک تغییر دهند تا برای جنوب مفیدتر باشد. آنها سوالات را بهطور صریح بیان نمیکنند، اما ما میتوانیم آن هارا به صورت التزامی و مفهومی بررسی کنیم ".[۴]
- ۱۹۴۲: داستان کوتاه " دوراهی " آسیموف که برای اولین بار به وضوح سه قانون او را بیان میکند. این "قوانین" در کارهای بعدی داستان علمی مربوط به ربات توسط آسیموف مورد استفاده مجدد قرار خواهد گرفت.
- ۲۰۰۴: اولین همایش بینالمللی روبوتیک، که توسط دانشکده رباتیک برگزار شد، جایی که کلمه روبوتیک برای اولین بار بهطور رسمی استفاده میشود (30 – ۳۱ ژانویه ۲۰۰۴، ویلا نوبل، سانرمو، ایتالیا).
- ۲۰۰۴: IEEE-RAS کمیته فنی درباره روباتیک را تأسیس کرد[پیوند مرده].
- ۲۰۰۴: اعلامیه جهانی ربات Fukuoka (25 فوریه ۲۰۰۴، Fukuoka، ژاپن).
- ۲۰۰۵: IEEE RAS TC در زمینه رباتیک ، ICRA05 (کنفرانس بینالمللی رباتیک و اتوماسیون)، کارگاه آموزشی در مورد روباتیک، (۱۸ آوریل ۲۰۰۵، بارسلون، اسپانیا) را برگزار میکند.
- ۲۰۰۵ – ۲۰۰۶: آتلیه EC Euron Roboethics . پروژه یورون، با هماهنگی دانشکده رباتیک، شامل تعداد زیادی از رباتیکها و دانشمندان علوم انسانی بود که اولین نقشه راه برای اخلاق رباتیک را تولید کردند (فوریه / مارس ۲۰۰۶، جنوا، ایتالیا)
- ۲۰۰۶: BioRob2006، اولین کنفرانس بینالمللی IEEE / RAS-EMBS در زمینه رباتیک پزشکی و بیومکاترونیک؛ سمپوزیوم کوتاه در مورد روباتیک (۲۰ فوریه ۲۰۰۶، پیزا، ایتالیا).
- ۲۰۰۶: کارگاه بینالمللی "اخلاق تعامل انسان با سیستمهای رباتیک ، بیونیک و هوش مصنوعی: مفاهیم و سیاستها"؛ تحت حمایت پروژه اروپایی ETHICBOTS – 18 اکتبر ۲۰۰۶، ناپل، ایتالیا).
- ۲۰۰۷: IEEE RAS TC در زمینه روباتیک کارگاه آموزشی دیگری درباره روبوتیک ، ICRA07 (کنفرانس بینالمللی رباتیک و اتوماسیون)، (۱۴ آوریل ۲۰۰۷، رم، ایتالیا) برگزار میکند.
- ۲۰۰۷: ICAIL'07 بایگانیشده در ۳ ژوئن ۲۰۰۸ توسط Wayback Machine ، کنفرانس بینالمللی هوش مصنوعی و قانون، (۴–۸ ژوئن ۲۰۰۷، دانشگاه استنفورد، پالو آلتو، کالیفرنیا، ایالات متحده آمریکا).
- ۲۰۰۷: کنفرانس بینالمللی اروپایی محاسبات و فلسفه E-CAP '07 بایگانیشده در ۱ ژوئیه ۲۰۱۰ توسط Wayback Machine، آهنگ: "روبوثیک" (21 – ۲۳ ژوئن ۲۰۰۷، دانشگاه توئنته، هلند).
- ۲۰۰۷: تحقیق فلسفی اخلاق رایانه CEPE '07، موضوع: "روبوتیک" (12 – ۱۴ ژوئیه ۲۰۰۷، دانشگاه سن دیگو، کالیفرنیا، ایالات متحده آمریکا).
- ۲۰۰۸: رباتهای هماندیشی بینالمللی: علوم جدید (۲۰ فوریه ۲۰۰۸، از طریق della Lungara 10، رم، ایتالیا).
- ۲۰۰۹: IEEE RAS TC در زمینه روباتیک کارگاه آموزشی دیگری درباره روبوتیک، ICRA09 (کنفرانس بینالمللی رباتیک و اتوماسیون)، (۱۷ مه ۲۰۰۹، کوبه، ژاپن) برگزار میکند.
- ۲۰۱۲: We Robot ۲۰۱۲ (دانشگاه میامی، فلوریدا، ایالات متحده آمریکا).
- ۲۰۱۳: کارگاه آموزشی اخلاق ربات (فوریه ۲۰۱۳، دانشگاه شفیلد، یورکشایر جنوبی، انگلیس).
- ۲۰۱۳: We Robot ۲۰۱۳ - شروع به کار (دانشگاه استنفورد، پالو آلتو، کالیفرنیا، ایالات متحده).
- ۲۰۱۴: We Robot ۲۰۱۴ - خطرات و فرصتها بایگانیشده در ۲۳ ژوئن ۲۰۲۰ توسط Wayback Machine (دانشگاه میامی، فلوریدا، ایالات متحده آمریکا).
- ۲۰۱۶: ملاحظات اخلاقی و اخلاقی در عوامل غیرانسانی، سمپوزیوم استنفورد بهار، انجمن AAAI برای پیشرفت هوش مصنوعی [۱] (دانشگاه استنفورد، پالو آلتو، کالیفرنیا، ایالات متحده).
- ۲۰۱۷: اجلاس سرمایهگذاری آینده در ریاض؛ تابعیت عربستان سعودی به رباتی (به اسم صوفیا که مؤنث است) اعطا میشود و اولین رباتی است که تابعیت دارد.[۵][۶] این موضوع به دلیل ابهام در مورد چندین مسیله، بحثبرانگیز شد، به عنوان مثال آیا سوفیا میتواند رأی دهد یا ازدواج کند، یا اینکه خاموش کردن عمدی سیستم قتل محسوب میشود. علاوه بر این، کنار هم قرار دادن حقوقی که زنان سعودی در برابر شهروندی ربات برای شهروندی سعودی در نظر میگیرند، به زودی انتقاد مطبوعات را به دنبال خواهد داشت[۷][۸] (۲۵ اکتبر ۲۰۱۷، ریاض، عربستان سعودی).
- ۲۰۱۷: مؤسسه AI Now (AI Now) در NYU، یک مؤسسه تحقیقاتی که پیامدهای اجتماعی هوش مصنوعی را بررسی میکند، تشکیل شد (۱۵ نوامبر ۲۰۱۷، New York CIty، NY، USA).
دانشمند کامپیوتر ،ویرجینیا دینگوم، در شماره اخلاق و فناوری اطلاعات در مارس ۲۰۱۸ اظهار داشت که نگرش عمومی جامعه نسبت به هوش مصنوعی، در دوران مدرن، از مشاهده آن به عنوان ابزار و دیدن آن به عنوان یک «هم تیمی» هوشمند دور شدهاست. در همان مقاله، وی با توجه به هوش مصنوعی بررسی کرد که، متفکران اخلاق سه هدف دارند که به عقیده او در دوران مدرن هریک میتواند با تأمل و تفکر دقیق محقق شود.[۹][۱۰][۱۱][۱۲][۱۳] سه هدف اخلاقی به شرح زیر است:
- اخلاق با طراحی (ادغام فنی / الگوریتمی توانایی استدلال اخلاقی به عنوان بخشی از رفتار سیستم خودمختار مصنوعی - به اخلاق ماشین مراجعه کنید)؛
- اخلاق در طراحی (روشهای نظارتی و مهندسی که از تجزیه و تحلیل و ارزیابی پیامدهای اخلاقی سیستمهای هوش مصنوعی پشتیبانی میکنند زیرا اینها ساختارهای اجتماعی سنتی را یکپارچه یا جایگزین میکنند)؛ و
- اخلاق برای طراحی (کدهای رفتاری، استانداردها و فرایندهای صدور گواهینامه که از یکپارچگی توسعه دهندگان و کاربران هنگام تحقیق، طراحی، ساخت، بهکارگیری و مدیریت سیستمهای هوشمند مصنوعی اطمینان مییابد - به اخلاق و قانون ربات در زیر مراجعه کنید).[۱۴]
در فرهنگ عامه
[ویرایش]روبوتیک به عنوان یک موضوع علمی یا فلسفی، موضوعی رایج در ادبیات و فیلمهای علمی تخیلی است. فیلم ماتریکس یکی از فیلمهایی است که میتوان ادعا کرد در فرهنگ پاپ ریشه دارد که ژانر ویرانشهر در آینده را که بااستفاده از هوش مصنوعی رباتیک رخ میدهد به تصویر میکشد، در این فیلم انسانها و هوش مصنوعی آگاهانه برای کنترل سیاره زمین تلاش میکنند و منجر به نابودی بیشتر نژاد بشر میشود. . انیماتریکس، یک فیلم انیمیشن براساس ماتریکس است که به شدت بر روی مسائل اخلاقی و ناامنیهای بین انسان و ربات متمرکزشده است. این فیلم به داستانهای کوتاه تبدیل شدهاست. انیمیشنهای کوتاه انیماتریکس نیز به نام داستانهای آیزاک آسیموف نامگذاری شدهاند.
وجه دیگر اخلاق در ربات که در فیلمها و نمایشهای تلویزیونی متعددی مورد بررسی قرار گرفتهاست بهطور خاص مربوط به رفتار انسانها با رباتها میباشد. یک نمونه از این موارد فیلم پیشتازان فضا میباشد که در این فیلم نسل بعدی دارای یک اندروید انسان نما به نام دیتا است که دیتا به عنوان یکی از شخصیتهای اصلی فیلم است. در بیشتر موارد، در انجام ماموریتهای حیاتی و حساس او به عنوان یک فرد مورد اعتماد است، اما توانایی او در تطابق با موجودات زنده دیگر اغلب زیر سؤال میرود.[۱۵] اخیراً، فیلم اکس ماکینا (فراماشین) و نمایش تلویزیونی وست ورلد (سریال جهان غرب) با به تصویر کشیدن رباتهای واقع گرایانه که انسانها با آنها به عنوان کالاهای بیارزش رفتار میکنند، بهطور مستقیم این سوالات اخلاقی رابه کار گرفتهاند.[۱۶][۱۷] سوالات پیرامون رفتار موجودات مهندسی شده نیز بیش از ۵۰ سال است که جز کلید اصلی بلید رانر (حق رای دادن) است.[۱۸] فیلمهایی مانند او حتی با حذف جنبه فیزیکی و تمرکز بر احساسات، رابطه انسان با رباتها را بیشتر استخراج کردهاند.
رفتار اخلاقی رباتها اگرچه به خودی خود بخشی از روبوتیک نیست، اما در فرهنگ عامه موضوعی الحاقی در روبتیک است. مجموعه نابودگر روی رباتهایی که توسط یک برنامه آگاهانه هوش مصنوعی اجرا میشوند و هیچ محدودیتی در خاتمه دادن به دشمنان ندارند تمرکز دارد. این مجموعه نیز دارای همان الگوهای سزیال ماتریکس است، که رباتها کنترل را به دست گرفتهاند. یکی دیگر از موارد مشهور فرهنگ پاپ رباتها یا هوش مصنوعی بدون اخلاق و اخلاق برنامهریزی شده، هال ۹۰۰۰ در مجموعه ادیسه فضایی است، جایی که هال (رایانه ای با قابلیتهای پیشرفته هوش مصنوعی است که در ایستگاه فضایی به انسان نظارت و کمک میکند) برای اطمینان از موفقیت در مأموریت تعیین شده پس از تهدید حیات خود همه انسانهای موجود در آن ایستگاه فضایی را میکشد.
اخلاق و قانون ربات
[ویرایش]با مطرح شدن مسائل فن آوری معاصر همزمان با فشار جامعه، یکی از موضوعاتی که نیاز به تأمل و تفکر کامل دارد، اخلاق ربات در رابطه با قانون است. دانشگاهیان دربارهٔ روند چگونگی ایجاد قانون گذاری دولتمردان در رابطه با اخلاق و قانون ربات بحث کردهاند. دو دانشمندی که این سوالات را پرسیدهاند عبارتند از: نیل ریچاردز، استاد حقوق در دانشگاه واشینگتن در سنت لوئیس و همچنین ویلیام دی. اسمارت، دانشیار علوم کامپیوتر در دانشگاه واشینگتن در سنت لوئیس. آنها در مقاله خود با عنوان «چگونه رباتها باید دربارهٔ قانون فکر کنند» چهار ادعای اصلی در مورد اخلاق و قانون ربات مطرح میکنند. اساس استدلال آنها تعریف ربات به عنوان «عوامل خودمختار غیر بیولوژیکی است که فکر میکنیم جوهره چالشهای نظارتی و فناوری موجود در رباتها را شامل میشود و میتوانند اساس مقررات آن باشند.» است. ادعای دوم، ظرفیتهای پیشرفته آینده رباتها را در مدت زمان حدود یک دهه بررسی میکند. ادعای سوم آنها در رابطه با مسائل حقوقی اخلاق ربات و تجارب حقوقی با تجارب حقوقی قانون سایبری را بحث میکند. به این معنی که قوانین اخلاق ربات میتواند به دنبال قانون سایبری برای راهنمایی باشد. «درسی» که از قانون سایبری یادگرفته میشود، اهمیت استعارههایی است که در مسائل نوظهور در فناوری میفهمیم. این امر بر این اساس استوار است که اگر استعاره را اشتباه بفهمیم، قانونگذاری پیرامون مسئله فناوری نوظهور به احتمال زیاد نادرست است. چهارمین ادعایی که آنها علیه آن استدلال میکنند استعاره ای است که این دو دانشمند به عنوان «مغالطه اندروید» تعریف میکنند. آنها علیه این ادعا بحث میکنند که این ادعا بیان میکند انسانها و موجودات غیر بیولوژیکی «دقیقاً مانند مردم» هستند
جستارهای وابسته
[ویرایش]منابع
[ویرایش]- ↑ Veruggio, Gianmarco; Operto, Fiorella (2008), Siciliano, Bruno; Khatib, Oussama (eds.), "Roboethics: Social and Ethical Implications of Robotics", Springer Handbook of Robotics (به انگلیسی), Springer Berlin Heidelberg: 1499–1524, doi:10.1007/978-3-540-30301-5_65, ISBN 978-3-540-30301-5
- ↑ "Robot Ethics". IEEE Robotics and Automation Society (به انگلیسی). Retrieved 2017-06-26.
- ↑ "ROBOETHICS Cover". www.roboethics.org. Retrieved 2020-09-29.
- ↑ http://www.roboethics.org/icra2005/veruggio.pdf
- ↑ "Saudi Arabia gives citizenship to a non-Muslim, English-Speaking robot". Newsweek. 26 October 2017.
- ↑ "Saudi Arabia bestows citizenship on a robot named Sophia". TechCrunch. October 26, 2017. Retrieved October 27, 2016.
- ↑ "Saudi Arabia takes terrifying step to the future by granting a robot citizenship". AV Club. October 26, 2017. Retrieved October 28, 2017.
- ↑ "Saudi Arabia criticized for giving female robot citizenship, while it restricts women's rights - ABC News". Abcnews.go.com. Retrieved 2017-10-28.
- ↑ Rahwan, Iyad (2018). "Society-In-the-Loop: Programming the Algorithmic Social Contract". Ethics and Information Technology. 20: 5–14. arXiv:1707.07232. doi:10.1007/s10676-017-9430-8.
- ↑ Bryson, Joanna (2018). "Patiency Is Not a Virtue: the Design of Intelligent Systems and Systems of Ethics". Ethics and Information Technology. 20: 15–26. doi:10.1007/s10676-018-9448-6.
- ↑ Vamplew, Peter; Dazeley, Richard; Foale, Cameron; Firmin, Sally (2018). "Human-Aligned Artificial Intelligence Is a Multiobjective Problem". Ethics and Information Technology. 20: 27–40. doi:10.1007/s10676-017-9440-6.
- ↑ Bonnemains, Vincent; Saurel, Claire; Tessier, Catherine (2018). "Embedded Ethics: Some Technical and Ethical Challenges" (PDF). Ethics and Information Technology. 20: 41–58. doi:10.1007/s10676-018-9444-x.
- ↑ Arnold, Thomas; Scheutz, Matthias (2018). "The 'Big Red Button' Is Too Late: An Alternative Model for the Ethical Evaluation of AI Systems". Ethics and Information Technology. 20: 59–69. doi:10.1007/s10676-018-9447-7.
- ↑ Dignum, Virginia (2018). "Ethics in Artificial Intelligence: Introduction to the Special Issue". Ethics and Information Technology. 20: 1–3. doi:10.1007/s10676-018-9450-z.
- ↑ Short, Sue (2003-01-01). "The Measure of a Man?: Asimov's Bicentennial Man, Star Trek's Data, and Being Human". Extrapolation. 44 (2): 209–223. doi:10.3828/extr.2003.44.2.6. ISSN 0014-5483.
- ↑ Staff, Pacific Standard. "Can 'Westworld' Give Us New Ways of Talking About Slavery?". Pacific Standard (به انگلیسی). Retrieved 2019-09-16.
- ↑ Parker, Laura (2015-04-15). "How 'Ex Machina' Stands Out for Not Fearing Artificial Intelligence". The Atlantic (به انگلیسی). Retrieved 2019-09-16.
- ↑ Kilkenny, Katie. "The Meaning of Life in 'Blade Runner 2049'". Pacific Standard (به انگلیسی). Retrieved 2019-09-16.
پانویس
[ویرایش]- لوی، دیوید (نوامبر، ۲۰۰۸). عشق و رابطه جنسی با روباتها: تکامل روابط انسان و ربات. هارپر چند ساله
- ریچاردز، نیل م. اسمارت، ویلیام دی. (۲۰۱۳). چگونه باید قانون در مورد روبات فکر میکنم؟ : https://papers.ssrn.com/sol3/papers.cfm؟abstract_id=2263363