کتابخانه «شکوفایی و رشد»

کار ما، تخصصی، تربیت است؛ کوچینگ؛ مهارت شکوفا شدن و رشد دادن

کتابخانه «شکوفایی و رشد»

کار ما، تخصصی، تربیت است؛ کوچینگ؛ مهارت شکوفا شدن و رشد دادن

بهترین روشها، ترفند و تکنیکهای تربیت را
در کنار هم جمع کردیم...
پاسخهایی کاربردی، معتبر و تاحدامکان جامع به سوال های رایج...

«محمدرضا سرافرازی»
«محمدرضا سرافرازی»

طبقه بندی موضوعی وبلاگ اخلاق و تربیت

تازه‌ترین یافته‌های اخلاق رایانه‌ای، هوش مصنوعی دنیای مجازی و واقعیت مجازی،جوزف میگاکیزا، رضا بخشایش

http://www.ettelaathekmatvamarefat.com/new/index.php?view=article&catid=20%3Amag-4&id=364%3A1390-05-03-15-33-13&format=pdf&option=com_content&Itemid=30

تازه‌ترین یافته‌های اخلاق رایانه‌ای

PDF چاپ نامه الکترونیک

تازه‌ترین یافته‌های اخلاق رایانه‌ای

هوش مصنوعی دنیای مجازی و واقعیت مجازی
جوزف میگاکیزا
رضا بخشایش


کتاب مسائل اخلاقی و اجتماعی در عصر اطلاعات نوشته جوزف میگا کیزا یکی از مهمترین آثار منتشر شده در حوزه اخلاق فناوری اطلاعات است. ویراست چهارم کتاب در سال  2010. منتشر شد که با پاره ای اصلاحات و افزوده ها بر ویراست قبلی آن همراه است. ویراست سوم این کتاب توسط اقای دکتر رضا بخشایش ترجمه شده که از سوی دبیرخانه شورای عالی اطلاع رسانی در دست چاپ است .مقاله حاضر ترجمه فصل دهم آن کتاب است. مولف در این فصل به طرح موضوع هوش مصنوعی و نگرانی هایی که از امکان فعالیت های دستگاه هایی با هوش مصنوعی در جهان واقعی ما انسان ها پیش می آید ، می پردازد. اگر روزی ماشین های ساخته شده توسط بشر با ضریب هوشی یکسان و یا حتی بیشتر از هوش خود انسان در زندگی ما  مداخله کنند و دست به کار شوند ، مسئولیت اخلاقی کارهای انجام گرفته توسط ان ها بر عهده چه کسی است ؟ آیا کسانی که به تولید چنین ماشین هایی دست زدند ، مسئول کلیه کارهایی اند که ماشین های مذکور انجام می دهند؟
یک داستان...
نوشیدنی آخر! کسی می خواهد؟
فلورانس یوزفو1 دانشمند برجسته ای است که ریاست آزمایشگاه پژوهشی روباتیک را در یکی از ده پژوهشکده2 برتر بر عهده دارد. فلورانس سرگرم طراحی چرخ دنده روباتیک پوشیدنی بوده است. این دستگاه می تواند کنترل رانندگی خودرو را از طریق راننده ای که دستگاه را پوشیده به دست بگیرد. این روبات که "کچ مینات"3 نام داشت در تست‌های آزمایشگاهی که فلورانس و دستیارانش آن را پوشیدند موفقیت‌آمیز عمل کرد. اما هنوز هیچ برنامه ای بیرون از آزمایشگاه انجام نشده بود. فلورانس در نظر داشت روزی آن را آزمایش کند اما تا به حال فرصت این کار را نداشته است.
فلورانس می خواست شب سال نو به دیدار مادر و خواهرش برود که حدود 100 مایل دورتر از او زندگی می کردند. این برایش فرصت خوبی بود که به مادر و خواهرش نشان بدهد در چند ماه اخیر مشغول چه کاری بوده است. بنابراین، تصمیم می‌گیرد "کچ می‌نات" را هم با خود ببرد. عصر روز قبل بار خود را در ماشین می بندد و صبح روز سفر به آزمایشگاه می‌رود و دستگاه روبات را داخل ماشین می گذارد. او این صد مایل راه را کمی‌سریع تر از  معمول طی می‌کند و زودتر  به خانه مادرش می‌رسد. هنگام غروب از مادرش خداحافظی می‌کند و طبق قرار به آپارتمان خواهرش سر می زند. در آپارتمان خواهرش چند نفر از دوستانش را می بیند و بلافاصله وارد فضای جشن و شادی می‌شوند.
فلورانس مشغول نوشیدن و شادی می‌شود و زمان را فراموش می کند. آنها داستان‌های زیادی برای گفتن و شنیدن داشتند. نیمه شب، حوالی ساعت یک صبح و بعد از نوشیدن به سلامتی هم، تصمیم می گیرد آنجا را ترک کند و با ماشین به آپارتمان خود برود. قبلاً قول داده بود که دوست خود را در نامزدی از پیش برنامه‌ریزی شده ای همراهی کند. فلورانس با وجود آن  که بسیار مست بود و بر خلاف توصیه و اصرار دوست خود که نباید رانندگی کند، دستگاه "کچ می نات" را به تن می‌کند و ظرف چند دقیقه به راه می‌افتد. سی دقیقه بعد او با سرعت 70 مایل در ساعت در حالی که  به خواب عمیقی فرو رفته در حال حرکت است.
حدود ساعت 5 صبح  سنجابی که در حال جست و خیز دور و بر ماشین است او را از خواب بیدار می کند. او ماشین را کنار خیابان آپارتمان مجتمع4 مسکونی خود پارک کرده بود و با سلامت به خانه رسیده بود. فلورانس نمی‌دانست کی و از کجا رد شده و در طول مسیر چه اتفاقاتی افتاده بود. اگر چه شگفت زده و مبهوت بود و احساس گناه می‌کرد، خوشحال بود که دستگاه "کچ می‌نات" خوب کار کرده. فلورانس تصمیم گرفت که برای دستگاهش بازاریابی کند. در این فکر بود که چه قیمتی را باید برای آن در نظر بگیرد.
چرا فلورانس احساس گناه می‌کرد؟ آیا فلورانس حق دارد برای دستگاه "کچ می‌نات" بازاریابی کند؟ اگر در بازگشت به خانه با ماشین مشکلی پیش می‌آمد، آیا فلورانس مسئول آن بود؟ چه کسی مسئول بود؟
آیا بازاریابی برای دستگاه "کچ می‌نات" اخلاقی است؟
در باره لوازم اخلاقی هوش مصنوعی به خصوص "کچ می‌نات" گفت و گو کنید.

1. آشنایی
هوش مصنوعی(AT )،5 دنیای مجازی(CP )6 و واقعیت مجازی(VR)7 همه تازه‌ترین یافته های شگفت آور تکنولوژی‌اند که محیط هایی نو با امکانات نامحدود عرضه می کنند. محیط هوش مصنوعی که شاید بر مبنای ارزش انسانی، با امکان فهمیدن و گسترش دانش برای کارگزارهای هوشمند کار می‌کند، به این منظور[طراحی شده است] که ما را در حل مشکلات انسانی کمک کند. محیط دنیای مجازی واقعیت حضور فرضی اشیا و هم گنان را کاوش می‌کند. انسان می داند که آنها وجود دارند. اما نمی‌داند «واقعاً» چه کسی در کجای جهان خارج وجود دارد. محیط واقعیت مجازی با طراحی و ساخت ابزارهای بهتر برای فهم پیچیدگی‌های جهان ما به واقعیت «عوالم دیگر» شباهت دارد. به این ترتیب، انسان را به کشف شیوه بهتری برای زندگی نزدیک می‌کند. انسان ها به طور طبیعی کنجکاو اند و هر زمان که ممکن باشد به جست و جوی پدیده های نو می روند. بدین ترتیب، تازه ترین یافته  های بشر که ما در این فصل در باره آنها بحث می‌کنیم، افراد مختلفی را به خود جلب کرده است. بعضی را برای تجربه حضور در دنیای مجازی، بعضی را برای درک هیجانات واقعیت مجازی و دیگرانی را برای جست وجو در کاربرد دانش در حوزه‌هایی که هنوز ناشناخته مانده اند. انسان ها هر جا و هر زمان که به این محیط کشیده می‌شوند در آن مشارکت دارند و همین طور که اهداف اجتماعی فردی را پی می‌گیرند، آنها را امتحان می‌کنند و با این مسایل درگیر می‌شوند. این فصل تأثیرات اعمال بشری را در این محیط ها بررسی می کند. در اینجا، مشکلاتی را که در مقام داوری نسبت به مسئولیت اعمال فردی در نتیجه این محیط ها با آنها مواجه می‌شویم، تجزیه و تحلیل می کنیم. در هر محیطی، مسئولیت بر دوش دو طرف است: تولید‌کننده و کاربر.
2. هوش مصنوعی
هوش مصنوعی رشته ای علمی ‌است که با هوش انسانی برابری می کند. پیشرفت‌های اخیر در هوش مصنوعی و امکانات نهفته ظاهراً بی مرز آن برای حل مشکلات زندگی واقعی، کاربردهای تکنولوژی رایانه ای را به حوزه‌های جالبی کشانده است. حوزه هایی که بیش از این تصور می شد به هوش عمیق انسان نیاز دارد. رفتار هوشی انسان بسیار گوناگون و فاقد تعریف دقیق است. پیش بینی این رفتار هم دشوار است، چه رسد به فهم آن. از این رو، بیشتر مطالعات در مورد هوش مصنوعی به حوزه‌های محدودی می‌پردازد که نیروی عقل و تفکر بشری در آن روشن است و کلیت رفتار هوشی انسان در آن حوزه‌ها را  به خوبی می‌توان درک کرد.
این حوزه‌ها با جنبه‌هایی از هوش انسانی سروکار دارد که می‌توان آنها را به طور رمزی با منطق درجه اول8 مثل بازی و فهم طبیعی زبان نمایش داد. حوزه‌های دیگر که میزان بالایی از هوش بشری را نشان می‌دهد مثل فرایند تفکر الگوی بازشناسی و مفهوم‌سازی هنوز انتزاعی هستند و به سختی می‌توان آنها را درک کرد. در هر حال، بیشتر مشکلات دنیای واقعی برای هوش بشری چندان دشوار نیست. اما برای هوش ماشینی هنوز حل نشدنی است. با علم به این مسأله که مستلزم محاسبات عددی و بهبود قدرت محاسبه در رایانه های جدید است، سرعت پژوهش در هوش مصنوعی برای انتقال از آن حوزه‌هایی که در رمزها دست‌کاری می‌شود به سمت محاسبات عددی به کندی صورت می‌گیرد. این وضعیت، هوش مصنوعی را گوناگون و قابل اجرا می‌کند و گنجینه تکنیک‌های آن را افزایش می‌دهد. اما به دلیل همراه نشدن حس و فهم مشترک با تکنیک‌های هوش مصنوعی، پیشرفت در شرایط واقعی کند بوده است. مگر در حوزه هایی مثل روباتیک و آموزش ماشینی که به دلیل کاربردی بودن آن در زندگی روزمره جذابیت بیشتری داشته‌اند. در عین حال، این شناخت درهای جدیدی را بر روی پژوهش های هوش مصنوعی در حوزه هایی مثل شبکه‌های عصبی و نظریه منطق فازی9 باز می‌کند. این امر موجب می‌شود دانشمندان به روش های نو برای دست یابی به هوش ماشینی نگاه جدیدی بیندازند و در عین حال به مطالعه آثار اجتماعی و اخلاقی و به این که مسؤلیت رفتار‌های چنین ماشین هایی را، چه‌طور تقبل کنند روی بیاورند. در این بخش،  به لوازم اجتماعی و اخلاقی در حوزه‌های فعال نظر می‌اندازیم که در هوش مصنوعی پیشرفت کرده‌اند و در حال تثبیت هستند.

2-1. پیشرفت‌ها در هوش مصنوعی
الن تورینگ10 سال 1950 با دست زدن به آزمایش های ماشین هوش بازی ای را بین رایانه و انسان به راه انداخت. این بازی نشان می‌داد که آیا ماشین می‌تواند فکر کند یا نه. از آن زمان علاقه به ساخت ماشین‌های هوش، که عموماً به کارگزارهای خودمختار11 شهرت داشتند، در حوزه هایی از AI که در آن به‌راحتی از هوش الگوبرداری کرد، رشد ثابتی داشته است. حوزه‌هایی مثل بازی، سیستم های تخصصی، فهم طبیعی زبان، شبکه های عصبی و روبات‌ها.
کارگزارهای خودمختار پدیده تازه‌ای در هوش مصنوعی  نیست. از زمان تورینگ، دانشمندان زیادی همچون ماروین مینسکی12، الن کی،13 و رادنی بروکس14 در زمان های مختلف رفتار این کارگزارها را مطالعه کرده‌اند و احیاناً کارگزارهای خودمختاری را ساخته اند. [اصطلاح] کارگزار خودمختار نامی‌کلی است که هم سخت‌افزار و هم کارگزارهای هوشمند نرم‌افزاری را در بر می‌گیرد. کارگزارهای خودمختار بسته به ماهیت محیط ممکن است اَشکال مختلفی به خود بگیرد. این گزاره‌ها مثلاً در محیط سه بعدی واقعی روبات اند، در حالی که در محیط های دو بعدی برنامه های رایانه ای  هستند که به آنها کارگزارهای هوشمند می‌گویند.
به تدریج که پژوهش در زمینه هوش مصنوعی پیشرفت می‌کند، حوزه کاربرد کارگزارهای خود مختار بیشتر می شود. مثلاً از روبات ها در حوزه های متعددی مثل نظارت، اکتشاف، و محیط های خطرناک و غیر قابل دسترس استفاده شده است. سیستم های بصری بهتر، سنسورها، و زبان های برنامه ریزی ساده تر موجب باهوش تر شدن روبات ها شده اند. رشته روباتیک در حال گسترش است وحوزه‌هایی چون ادراک، شناخت و به کار‌بستن آن را در بر می‌گیرد موفقیت در این حوزه ها در صنعت به بهترین شکل خود را نشان می‌دهد. به عنوان مثال، در ادراک، ساخت خودروهایی با هدایت بصری خودمختار رشد قابل ملاحظه ای داشته است. پروژه ها در این حوزه عبارت اند از: پروژه تحقیقات زمینی خودمختار(ALV)15 برای آژانس پروژه تحقیقات پیشرفته (ARPA )16 و خودرو زمینی بدون سرنشین(UGV)،17 هم در ایالات متحده پروژه پرومثوس18  از پروژه اروپایی اروکا،19 و هم پروژه خودروی شخصی(PV) از MITI ژاپن. اینها مهم‌ترین پروژه های روباتیک هوش مصنوعی هستند. علاوه بر خودروهای خود راننده که در پروژه های بالا از آنها نام بردیم، از روبات ها برای پرداختن به مواد خطرناک و دست‌یابی به حوزه های دوردستی که ورود در آن برای انسان ها بی خطر نیست استفاده می‌شود. چنین پروژه های روباتی عبارت اند: از راه یاب سیار20 موسوم به ساجرنر،21 خودروی کنترل از راه دور مارز،22 پروژه امبلر،23 راه نورد شش پا24 برای عبور در ناحیه‌های ناهموار و پر چالش و پروژه دانته25 که از آن برای کاوش در آتشفشان کوه ایرباس26 استفاده می‌شد. از روبات هایی مثل دانته می توان برای اکتشافات برون زمینی و زیر دریایی نیز استفاده کرد.
اگر چه این پروژه ها مخلوقات مکانیکی بزرگی را در بر می گیرد، تحقیقات هم چنان حجم روبات ها را کوچک تر می کند . سیستم های ریزالکترومکانیکی27 یا MEMs، در حال پرطرفدار شدن هستند. کارکرد این مخلوقات کوچک به ویژگی های مکانیکی بیشتر از ویژگی های الکترونیکی وابستگی دارد. ریزالکترومکانیک ها به راحتی تغییر می کنند و فضای پیرامون را تحت کنترل خود در می‌آورند. از آن جا که این دستگاه ها کوچک‌اند می‌توان آنها را ترکیب یا ادغام کرد تا بسیاری از وظایف مفید را انجام دهند. با پیشرفت تکنولوژی پالایش شیوه ها، استفاده از روبات ها در زندگی روزمره انسان‌ها رایج‌ تر می شود. روندهای تولید و صنعت روز به روز بیشتر به روبات ها وابسته می شوند. مثلاً برای مونتاژ رایانه های شخصی تقریباً به طور کامل از روبات ها استفاده می شود.  از کارگزارهای هوشمند نرم‌افزاری هم در حوزه‌های گوناگونی استفاده می‌شود، حوزه هایی مثل تشکیل پرونده برای اطلاعات و بازیابی آن، مدیریت پست، جدول بندی همایش ها و در گزینش فعالیت ها و مواردی که به  کاربران مربوط می‌شود و به کار آنان می آید. کارگزارها هم چنین به کاربران در حوزه‌های دیگر کمک می کنند. کمک‌هایی مثل پنهان کردن پیچیدگی کار در دست اقدام، آموزش و همکاری با کاربر در حوزه‌های خاص کاری و نظارت بر پیشرفت کارهای در دست اقدام از جمله ی این کمک ها هستند.
کارگزارهای هوشمند در چند حوزه الگوهای نخستینی داشته اند، از جمله دستیار شخصی، جدول بندی نشست‌ها، رسیدگی به نامه‌های الکترونیکی، فیلتر‌سازی و تفریح. مثلا، جولیا،28 کارگزار خودمختار در محیط چند کاربره شبیه‌سازی شده مبتنی بر متن (MUES)،29 کارهایی را انجام می‌دهد مثل نگهداری سخن در دستگاه‌های پخش، شنیدن اتفاقی مکالمات و سخن پراکنی درباره آنها، رله کردن پیام ها بین دستگاه‌های پخش و برطرف کردن مشکلات مسیریابی30 در دستگاه‌های پخش. در زمینه دستیار شخصی، فیل31 در مسیریاب دانش32ِ جان اسکالی33 توسط اپل34 که نقش استاد، مدیر منابع و کارگزار بازیابی دانش را بازی می‌کند، مثالی برای کارگزار هوشمند در دستیار شخصی است. به علاوه در دیگر حوزه ها پژوهش های جاری مثل پروژه ACDS وجود دارد که به دنبال به کار‌گیری کارگزار‌ها در ارتباط با روند طراحی اند. در دانشگاه واشنگتن، پروژه روبات نرم‌افزاری موسوم به سافت بات35 در حال ساخت است. این روبات با دامنه گسترده ای از منابع اینترنتی مثل FTP، TELNET، MAIL و دیگر دستور العمل های کاربردی برای فایل ها به منظور تهیه میانجی کامل و رسایی36 در اینترنت در داد و ستد است. به علاوه، این پروژه بازگشت آسان از مسیر طی شده37 از ابزاری اینترنتی به ابزار دیگر را بر پایه اطلاعات جمع‌آوری شده در زمان اجرا و این که چه ابزاری را بنا به اقتضا در چه سکانسی به طور فعال انتخاب کند فراهم می‌کند. در زمینه یادگیری در حال حاضر تعدادی دستیار شخصی وجود دارد، از جمله cap 38 که از جدول اولویت بندی کاربر از خلاصه تجارب کاری او تا پنج سال[برنامه‌ریزی کاری او را] یاد می‌گیرد و coach 39 که تجارب کاربر را ثبت و ضبط می‌کند تا کمک یار شخصی برای کاربر به وجود بیاورد. این دستیار با ملاحظه اقدامات کاربر برای ایجاد الگوی انتخابی که دستگاه مناسبی را برمی گزیند،[به طور خودکار برنامه‌ریزی کاربر را] یاد می‌گیرد. M کارگزار نرم‌افزاری دیگری است که چندین "کارگزار استدلال" را با هم هماهنگ می کند. نتایج مشترک این کارگزارها کمک رسانی به کاربری است که با دیگر کاربران در اتاق کنفرانس الکترونیکی همکاری می‌کند.

2-2. هوش مصنوعی و اخلاق
انسان ها به طور طبیعی برای داشتن زندگی خوب تلاش می‌کنند. آنها با کسب دانش و تولید ماشین های هوشمند برای انجام بیشتر کارهایی که یا خود قادر به انجام آن نیستند یا تمایلی به انجام آن ندارند، به سوی این هدف حرکت می‌کنند. اما به گفته جرج لوگار40  و ویلیام استابلفیلد41، این مفهوم و تلقی که تلاش انسان برای کسب دانش نقض قانون خدا است ریشه ای عمیق در ما دارد.42  ما هنوز باور داریم که طلب دانش سرانجام به فاجعه منجر خواهد شد. پیشرفت های اخیر در علم و فلسفه این باور را تحت تأثیر قرار نداده بلکه بر عکس علایم ترس هیولایی فرانکشتاینی43 را در پیشرفت های جدید در هوش به ویژه هوش ماشینی به  وجود آورده است. این ترس ریشه مناقشات در زمینه هوش مصنوعی است و این امکان نهفته را دارد که مانع پیشرفت آن شود. رمان نویسانی مثل آیزک آسیموف 44 و دیگران از هوش مصنوعی نوشته اند. مثبت ترین آنان جک ویلیامسون45 است که در رمان «با دستان بسته»46 دانشمند جوانی را به تصویر می‌کشد که طبیعت ویران گر بشری او را از خواب و خیال بیدار کرده است. بشری که روبات تولید می کند تا از نخستین دستور آسیموف47 تبعیت کند: «برای خدمت و اطاعت و پاسداری از انسان ها در برابر آسیب». 
در این داستان روبات‌ها نسخه بدل انسان هستند و همه کارهایی را که او می‌خواهد برایش انجام می‌دهند. البته تا زمانی که انسان به اشتباهی که مرتکب شده پی می‌برد. اما دیگر دیر شده است. انسان خود را بی خاصیت کرده است. «انسان ها گوشه ای بیکار نشسته‌اند، زیرا کاری برایشان نمانده تا انجام دهند». علم ممنوع شده است زیرا آزمایشگاه ها برای انسان خطرناک اند. نیازی به کسب دانش نیست زیرا روبات ها هر کاری را بهتر از انسان انجام می دهند. «هدف و امید از دست رفته است. هیچ هدفی برای بودن وجود ندارد. انسان می‌خواهد بپرسد چرا این دانشمند جوان نمی‌تواند این روبات ها را بکشد. او سعی می‌کند اما روبات ها جلوی او را می‌گیرند، زیرا او دارد با این کار دستور نخستین را نقض می‌ کند. در این میان روبات ها تکثیر می‌شوند. فلاسفه نیز از خیلی پیش تر ها این ترس را ابراز کرده بودند. به گفته ویزربرم48، غیر اخلاقی است که سیستم رایانه ای را به جای عشق، فهم و احترام انسانی بین اشخاص به کار ببریم. فلوید49 بر این باور است که از رایانه ها فقط در صورتی باید استفاده کرد که «بیرون از قلمرو کاربرد رایانه، میدان کافی برای دیگر توانایی‌های بشری و اشکال پایدار تجربه باقی باشد». ماروین مینسکی50 این وضعیت را به پاردوکس قدیمی‌درباره آموزش برده تشبیه می‌کند: «اگر نگذارید  بردگان چیز زیادی یاد بگیرند، مفید بودن آنان را محدود کرده اید. اگر به آنان کمک کنید که از شما زرنگ‌تر باشند، دیگر نمی‌توانید به آنان اعتماد کنید تا برنامه های بهتری را نسبت  به برنامه‌های شما طراحی کنند.»
هوش مصنوعی برای همه ما پارادوکسی اخلاقی و اجتماعی را به نمایش می‌گذارد. ما از این دستگاه ها می‌خواهیم کارهایی را که خودمان نمی‌توانیم انجام دهیم برایمان انجام دهند. ما در این کارها مهارت نداریم، با این حال نمی‌خواهیم که دستگاه ها مهارت خیلی زیادی هم به دست بیاورند. اگر فقط بتوانیم مطمئن باشیم که به قول هنس موراویک،51 این دستگاه ها «مانند خود ما ذهنی معصومانه» دارند، یعنی هم در فضیلت‌ها، حقایق و هم در ارزش ها به ما شبیه باشند، احتمالاً هیچ شرط واعتراضی نخواهیم داشت. همین‌طور که این کارگزاران خود مختار با هوش‌تر و بیشتر و بیشتر مورد استفاده واقع و‌پذیرفته می‌شوند، استقلال و مسئولیت بیشتری به دست می‌آورند. همان طور که می دانید پیش از این فقط انسان از چنین استقلال و مسئولیتی برخوردار بوده است.
این مسأله پرسش های بسیاری را درباره آینده این کارگزارهای خود مختار، ارتباط‌شان با انسان، رفتارشان و احساساتشان مطرح می‌کند. از جمله پرسش های زیر:
- انسان چگونه این کارگزارهای هوشمند را درک می کند؟
- این کارگزارهای خود مختار چه احساسی درباره انسان ها خواهند داشت؟
- آیا انسان اجازه می‌دهد که این «مخلوقات» هوشمند هم چنان باهوش‌تر  و باهوش تر بشوند؟ حتی با وجود این که می‌دانند نتیجه نهایی، برتری آنان بر هوش انسانی است؟
- آنها چگونه وظیفه ای را که بر عهده دارند انجام می دهند؟
- آیا آنها فقط کاری را که باید انجام دهند، انجام می دهند؟
- چه کسی مسئول اعمال آنها است؟
- آیا این کارگزارها کار را از صاحبان خود بهتر انجام می دهند؟
- آیا این کارگزارها سرانجام نیاز به مهارت های بشری را از بین خواهند برد؟
- مهم ترین پرسش این است که ما چه حدی از  قدرت و استقلال را باید به این مخلوقات بدهیم و آیا این کارگزارها سرانجام استقلال انسان و در نتیجه سرنوشت بشر را در اختیار خود خواهند گرفت؟
به گفته میچل والدراپ52، به تدریج که این کارگزارهای خود مختار باهوش تر می‌شوند، ما نیازمند نظریه و اجرایی برای ماشین اخلاقی می شویم که آیین‌نامه اخلاقی را دراین مخلوقات کار بگذارد. چیزی با حال و هوای قوانین روباتیک و آسیموف و سلسله مراتب اهداف کاربونل53.
آیزک آسیموف آیین‌نامه رفتار که آن را قوانین روبات ها نامیده در شخصیت داستانی روبات کار گذاشته و آن را با این ویژگی‌ها خلق کرده است:
1- روبات نباید به انسان آسیب برساند یا با ترک فعل54، اجازه دهد انسانی در معرض آسیب قرار بگیرد.
2- روبات باید دستورهای صادر شده از سوی انسان ها را اطاعت کند، مگر زمانی که این دستورها با قانون اول در تعارض باشند.
3- روبات باید از موجودیت خود تا جایی که با قانون اول و دوم در تعارض نباشد محافظت کند.
به گفته جیم کاربونل55، برنامه‌ها باید تحت کنترل سلسله مراتبی از اهداف باشند که به عنوان راهنما و دستور معین در پردازش استدلالی برنامه عمل کنند. این سلسله مراتب باید طوری تنظیم شود که آیین‌نامه اخلاقی را در برنامه وارد کند. اما سؤال این است که آیا روبات ها و برنامه های هوشمند، آن را دنبال می‌کنند؟ تا چه اندازه؟ آیا می توانند آیین‌نامه را تغییر دهند؟ هر قدر هم تلاش کنیم مانع آنها از این کار شویم؟ کاربونل تصور درستی درباره این موضوع دارد، اما مسایلی را به جای می‌گذارد که هنوز نیازمند پاسخ اند.

2-3. آینده نقش کارگزارهای خودمختار
آیا انتظارات بیش از حد از هوش مصنوعی هیاهو درباره هیچ نیست؟ آیا هوش مصنوعی از زمان سخن تورینگ در دهه 1950 که پیش بینی کرده بود انسان تا سال 2000 می‌تواند ماشینی مصنوعی بسازد،  هوش مصنوعی هیچ کار شگفت انگیزی برای انسان انجام داده است؟ به گفته افرادی چون توشینوری موناکاتا56 هوش مصنوعی رشد تأثیرگذاری در تولید، محصولات مصرفی، دارایی، مدیریت و پزشکی داشته است. هم چنین در سیستم‌های مهندسی دانش، ادراک، فهم زبان بشری، سیستم های فازی57 و الگوسازی برای مغز و تکامل، پیشرفت های چشم‌گیری به دست آورده است.
داستان های رایج در مورد موفقیت هوش مصنوعی در حوزه‌هایی مثل ماشین بینا، فهم کلام و پردازش دانش عقل سلیم را راضی نمی کند. بنابراین پیشرفت در پژوهش‌های هوش مصنوعی به عنوان بازشناسی هوش انسانی در بهترین شکل اجمالی و مبهم است. پیشرفت در هوش مصنوعی را چه پیشرفت در کار با رایانه که با مشکل حس مشترک رو در رو مواجه نیست بدانیم و چه حوزه شبیه‌سازی هوش بشری که شیوه های حس مشترک را در خود می‌پذیرد، آینده هوش مصنوعی هم چنان مناقشه برانگیز است. در پاسخ به این پرسش که آیا همکاری هوش مصنوعی با انسان خوب است یا بد، دو مکتب شکل گرفته است. 
اولین مکتب متعلق به کسانی است که دید تاریکی نسبت به همکاری های هوش مصنوعی دارند و همه فعالیت های آن را  پژوهش در مسیر غلط و پژوهش «دانشمند دیوانه» در حال و هوای فرانکشتاینِ مری شلی58 می داند. آنان از نگرانی های زیر سخن می گویند:
1- نبود تدابیر ایمنی قابل اعتماد برای رفع نگرانی های مربوط به حریم خصوصی و جلوگیری از محاسبات کنترل نشده.
2- رایانه ها که مصون از خطا و صاحبان  حقیقت مطلق تلقی شده اند، سرانجام به نقطه ای می‌رسند که فراتر از آن فهم شان متوقف می شود.
3- اگر بیشتر کارهای محل کار را به رایانه‌ها بسپاریم، افراد به تدریج مسئولیت های خود را رها کرده و می گویند: «رایانه ها این یا آن کار را انجام داده اند».
4- دیجیتالی کردن اطلاعات مربوط به افراد و سپردن آن به دستگاه افراد زیادی را نگران می کند. آنها نمی دانند رایانه چه اطلاعاتی در باره آنها دارد و چه می‌تواند با آن اطلاعات بکند.
5- اگر این دستگاه ابر هوشمند اطلاعات زیادی درباره فرد داشته باشد، چه اتفاقی در مورد او خواهد افتاد؟ آیا آن فرد ناخواسته تبدیل به شخصیتی بی پناه و سرگردان نمی‌شود؟
6- این که این کارگزارها تمام اطلاعات مربوط به هر فرد را در اختیار دارند، یعنی او را کاملاً در کنترل خود گرفته‌اند.
7- لازم است مردم احساس کنند فعالیت های روزانه خود را تحت کنترل دارند. تجربه نشان داده است که ما خود کارگردانی59 را با اکراه می‌پذیریم. مثلاً کسی تمایل ندارد مسافر هواپیمایی باشد که خلبان انسانی واقعی نباشد.
8- کسانی که از هوش مصنوعی انتظار دارند منجی بشریت باشد انتظارات خارج از توان و زیاد از حدی دارند. بخشی از این انتظارات مربوط به طراحانی است که سعی دارند کارگزارها و روبات‌هایی تولید کنند که در اشکال ظاهری، واکنش ها، اظهارات و هوش بسیار نزدیک و شبیه به انسان باشند.  در مقابل این گروه60، در مکتب دوم کسانی هستند که آینده هوش مصنوعی را کاملاً به سود بشریت می‌دانند. آنها به مشارکت سودمند با این کارگزاران اعتقاد دارند که بار کارهای خطرناک و ملال آور را از روی دوش ما بر می داشته، زندگی را آسان تر می کند و ما را در رسیدن به هدف نهایی زندگی خوب یاری می‌کند.

3. دنیای مجازی
دنیای مجازی محیطی است که از اطلاعات نادیدنی تشکیل شده است. این اطلاعات ممکن است اشکال مختلفی داشته باشد. به گفته میندی مک آدامز61، دنیای مجازی جهانی است تشکیل شده از اطلاعات خالص، اما نادیدنی که در آن اشیاء شکل سه بعدی دیدنی به خود می‌گیرند. این محیط در برگیرنده اشیا، از شبک ای جهانی از رایانه هایی تشکیل شده است که از طریق پروتکل های مورد توافق با یکدیگر کار می‌کنند. واژه cyberspace (دنیای مجازی) اولین بار توسط رمان نویسی به نام ویلیام گیبسون62 باهدف توصیف داد و ستد بین رایانه‌های شبکه و افرادی که از آن استفاده می‌کنند وضع شد. برای فهمیدن آثار و مشارکت دنیای مجازی در پژوهش درباره اخلاق رایانه ای، به نقش های دو بازیگر عمده نظر می کنیم: اینترنت و شبکه جهانی وب(WWW). از آن‌جا که در فصل مقدماتی با تفصیل زیاد از توسعه اینترنت و وب سخن گفتیم و از آن جا که فصل یازدهم نیز به طور گسترده به دنیای مجازی و اخلاق آن پرداخته است، بحث از لوازم اخلاقی و اجتماعی را همان جا ادامه می دهیم.
4. واقعیت مجازی
واقعیت مجازی(VR) مفهومی‌است که در دهه 1960 متولد شد. این مفهوم اغلب در آثار دانشمندانی چون ایان سوثرلند63 و دی.ال. ویکرز64 آمده است. این مفهوم پدیده ای واقعی یا خیالی، شبیه‌سازی شده در محیط سه بعدی است. این محیط شبیه‌سازی شده که ما آن را از طریق حواس مان واقعی می‌پنداریم، از اشیاء مجازی تشکیل شده است که با برنامه‌های گرافیکیِ-انیمیشنی رایانه‌ای با رابطه دو سویه سطح بالا تولید می‌شود و از یک برنامه نمایش گرافیکی، یک مبدل65 و یک مولد نگاره66 استفاده می‌کند. ابزارهای نمایش گرافیکی تمامی‌آثار محیط ایجاد شده را ارائه می‌دهند. نمایش‌ها می‌توانند صدا، تصویر یا نمایش لمسی باشند. ابزارها می‌توانند در اندازه‌های مختلفی ظاهر شوند. از اندازه های بسیار کوچک که به صورت عینک مخصوص به چشم زده می‌شود گرفته تا اندازه های واقعاً بزرگ در فضای اتاق. رایج‌ترین این ابزارها هدفون‌هایی هستند که به گوش زده می‌شوند و صداهای شبیه‌سازی شده را تولید می‌کنند. نمایش‌های لمسی معمولاً ابزارهایی هستند که آثار لمس نوک انگشتان را منتقل می‌کنند درنتیجه کاربر می‌تواند شیء را در ذهن خود مجسم کند، اما تکنولوژی ابزارهای لمسی توسعه چندانی نیافته است. مبدل ها کانالی ارتباطی بین شخص در محیط و منابع محیط ایجاد می‌کنند. کار اصلی مبدل این است که از حرکت شیء ای ساکن در محیط، مثل حرکت چشم‌ها، دست‌ها، فعالیت مغز، سخن و احیاناً حرکت خون در رگ ها نقشه برداری و آن را به صورتی رایانه‌ای تبدیل کند. طوری که سیستم رایانه‌ای بتواند واکنش مناسبی نشان دهد. مولد نگاره، تصاویری را تولید می کند که بتوان آنها را در دستگاهی خاص نمایش داد. این مولد ها در واکنش به ورودی‌ها از طریق مبدل، نگاره‌هایی را در خروجی‌های سیستم رایانه ای تولید می‌کنند. نگاره تولید شده ممکن است بصری باشد، مثل شبیه‌سازی کسی که در کهکشان سفر می‌کند. ممکن است در شکل های دیگری نیز ظاهر شود. مثل صدا که می‌تواند صداهایی شبیه آبشار یا رعد و برق باشد. اگر همه این اجزا با هم کار کنند، می توانند محیط رایانه ای دو سویه ای با گرافیک بالا تولید کنند.این محیط‌های سه بعدی تولید شده با رایانه شامل سنسورهای دو سویه‌ای است که برای موجودات ساکن در محیط تجربه‌های واقعی و نه توهم[محض] تولید می‌کنند، زیرا کاربران با این اشیاء67 و درون مایه ها68 رابطه دو سویه دارند و نه با تصاویر محض. البته آنها در این محیط ها وجود فیزیکی ندارند.
واقعیت مجازی به عنوان رشته ای علمی‌ و بدون کاربرد آغاز شد، در ابتدا پیدا کردن موارد کاربرد و توسعه آن در زندگی واقعی دشوار بود. این امر موجب شد بعضی آن را «پاسخی در جست و جوی پرسش» بنامند. اما امروزه موارد کاربرد واقعیت مجازی در برخی حوزه‌های علمی ‌و پزشکی رو به افزایش است. از جمله آنها  تجسم بخشیدن69 به داده‌های علمی‌ و شبیه‌سازی است. تجسم بخشی واقعیت مجازی، پژوهش‌های علمی‌چند بعدی با حجم بالا را طراحی می کنند و داده‌ها را در نمایش های سه بعدی شبیه‌سازی می‌کند. به علاوه رهیافت درست‌تر و واقع بینانه تری برای ارائه داده‌های عددی اصیل مطرح می کند و به فهم بهتر پدیده‌های انتزاعی تحت بررسی کمک می کند. اجازه دهید به چند پروژه واقعیت مجازی نگاهی بیندازیم. در زمینه تفریح و سرگرمی‌که واقعیت مجازی بیشتر از هر چیز در آن شناخته شده است، دو پروژه جالب وجود دارد. مانند مؤسسه زندگی مصنوعی دو طرفه در محیط ویدیوئی(ALIVE)70 در مؤسسه تکنولوژی ماساچوست(MIT )71. پروژه ALIVE محیطی مجازی ایجاد می‌کند که میان فرد شرکت‌کننده و کارگزارهای خودمختار انیمشینیِ ساکن در دنیای مجازی رابطه بی سیم دو طرفه آزادی برقرار می‌کند. این سیستم از طریق تعامل با کارگزارها احساسات و واکنش های کاربر را فرا می گیرد و از آن برای ایجاد طرحی در حرکت بعدی بازی با کاربر استفاده می‌کند. علاوه بر سرگرمی، واقعیت مجازی بیشترین فایده را در تجسم بخشی‌های علمی‌دارد که در آن ساختارهای پیچیده داده‌ها را به دانش رایانه‌ای بر می‌گرداند. و به این ترتیب فهم و مطالعه روی آن داده‌ها را آسان می‌کند. در پزشکی، از واقعیت مجازی با موفقیت و مهارت استفاده می شود تا داده‌های زیادی را از طریق ترکیب نمایش سه بعدی و چندین حرکت چرخشی با درجات متفاوتی از آزادی به شکل تصاویر سه بعدی در آورد. مثال روشن این کار پروژه مرکز توسعه اطلاعات پزشکی72 (CIEMED) از دانشگاه جان‌هاپکینز73 با همکاری مرکز توسعه اطلاعات پزشکی از دانشگاه سنگاپور74 است. این پروژه تصاویر پزشکی سه بعدی مغز و قلب را در طول عمل جراحی شبیه‌سازی می‌کند.
جدای از عالم پزشکی، از واقعیت مجازی، تجسم بخشی و شبیه‌سازی علمی، در چندین حوزه دیگر نیز استفاده می شود. از جمله در آموزش رانندگی و خلبانی. پروژه سیرکا(SIRCA )75 در لیسیت(LISITT )76 از دانشگاه والنسیا اسپانیا77 مثال روشنی از تلاش در حوزه کاربرد واقعیت مجازی است. پروژه سیرکا پیش برد شبیه‌سازی اشیاء کوچک و بزرگ در جهت رانندگی با هدف آموزش رانندگی است. با وجود این واقعیت مجازی از موارد کوچک آغاز شد و برای آن لطیفه هایی ساختند مانند این که می گفتند «علمی‌ است که در جست  وجوی کاربرد است.» در سال های اخیر به مرور که این علم در حوزه‌های گوناگون کاربرد پیدا کرد، مقبولیت زیادی به دست آورد. بعضی از این حوزه‌ها عبارت اند از پزشکی، طراحی، هنر، تفریح و سرگرمی، تجسم بخشی، شبیه‌سازی وآموزش. به طور خلاصه می توان گفت این علم آینده روشنی در پیش دارد.

4-1. اخلاق در واقعیت مجازی
همان طور که پیش‌تر گفتیم، واقعیت مجازی جبهه78 جدیدی است. برای بسیاری افراد تصویری که با شنیدن کلمه frontier در ذهن ساخته می شود حسی خالص و مغشوش از ماجرا جویی آزادانه است. محیط واقعیت مجازی کاربر را به چنین دید رومانتیکی نزدیک   تر می‌کند. اما به هر حال توهم است. واقعیت مجازی دو مسأله مهم اخلاقی و اجتماعی را مطرح می کند، یکی احساسات و واکنش های موجود ساکن در محیط، و دیگری نیت و قصد سازنده آن محیط. بعضی از عوامل و مسایل قابل بررسی عبارت اند از: 1- رابطه عاطفی و احساس تحت کنترل بودن: این مسأله مشکل روان شناسانه مهمی ‌برای بسیاری از کاربران واقعیت مجازی تا زمانی که در محیط مجازی هستند و حتی گاهی پس از ترک آن به وجود می آورد. با وجود این کاربران با کارگزارهای داخل محیط مجازی وارد تعامل و داد و ستد می‌شوند و از حالات خوش عاطفی که در برخورد با این کارگزارها به آنان دست می‌دهد لذت می‌برند و  تمایل دارند رابطه عاطفی خود با این کارگزارها را توسعه بدهند. این رابطه ممکن است موجب شود که کاربران وابستگی عمیقی به کارگزارها پیدا کنند، تا حدی که احساس کنند تحت کنترل هستند، سپس در کاربران احساس مسئولیت و اعتماد به وجود می آورد. حتی ممکن است این رابطه شکل خصمانه‌ای به خود بگیرد. به طوری که ضمن آن کاربر، چه زمانی که در محیط است و چه پس از ترک آن، احساس می‌کند از کنترل خارج و با کارگزارها دشمن شده است. در هر دو صورت، ممکن است که کاربر شخصیت یکی از کارگزارها را کسب و در محیط بیرون سعی کند با آن زندگی کند. پرسشی که از این وضعیت بی درنگ در ذهن مطرح می‌شود این است که چه کسی  مسئول پیامدهای محیط مجازی است. 2- ایمنی و امنیت: علاوه بر شرایط ذهنی و روان شناسانه که شاید در وجود کاربر محیط مجازی ظهور پیدا کند، تا زمانی که کاربر در محیط است امنیتش در خطراست. از آن جا که هوش کارگزارها در محیط مجازی رو به افزایش است، ممکن است این کارگزارها احساس یا واقعیتی از صدمات جسمی ‌و ذهنی را به کاربر وارد کنند. این آثار ممکن است تا زمانی که کاربر در محیط است معلول بی‌واسطه تماس های او باشد یا شاید هفته‌ها پس از آن که کاربر محیط را ترک گفت با تأخیر زمانی خود را نشان دهند. 3- ارتباط دو سویه میان کارگزار مجازی و انسان: ارتباط دو سویه میان کاربر و کارگزارها در محیط مجازی پیامدهای بسیاری دارد، از جمله ماهیت این ارتباط، فعالیت هایی که باید انجام شود و احساسات و واکنش های کاربر و کارگزارها. اگر کاربر این رابطه را دوستانه بداند ممکن است مشکلی به وجود نیاید. در غیر این صورت، مسأله احساس و تأثیر برتری این کارگزارهای مجازی مطرح می شود که یعنی ممکن است کاربر به دلیل هوش بالای کارگزارها احساس خطر کند. این وضعیت ممکن است کاربر را به دلیل از دست دادن کنترل یا احساس بی پناهی پریشان کند. 4- نیت و قصد تولید کنندگان محیط مجازی: پیش بینی این نیت‌ها بسیار دشوار است. ممکن است در این راستا کاربر را در معرض بزرگ ترین خطر قرار دهد. انسان هرگز نمی‌تواند مطمئن باشد که این محیط ها همان کاری را که از آنها انتظار می‌رود انجام می‌دهند. ممکن است با سوء نیت از چنین محیط هایی استفاده شود، مثل جمع‌آوری اطلاعات درباره کاربر برای تولید‌کننده یا کارگزارهای تولید‌کننده، بی آن که خود فرد از آن اطلاعی داشته باشد. حتی ممکن است مرجعی به طور سری از این محیط استفاده کند تا در ذهن و روان کاربر تغییراتی را به وجود بیاورد. متأسفانه، برخلاف کارگزارهای مجازی هوش مصنوعی که بیشتر افراد نمی خواهند خود را به آن واگذار کنند، در واقعیت مجازی اراده ای وجود دارد برای این که با اولین درخواست بی‌چون و چرا کاملاً تسلیم آن شوند، زیرا مردم در پی لذت هستند. از آن جا که واقعیت مجازی دانش بسیار جدیدی است، هنوز مطالعات گسترده درباره رفتار کاربر در محیط مجازی انجام نشده است. این پژوهش ارزشمندی است. به مرور با پیشرفت مطلوب واقعیت مجازی این مطالعات انجام می شوند. اما پرسش این است که در صورت بروز مشکل چه باید کرد؟ می‌توانیم با مسئولیت ناپذیری کاربر و مقاصد شیطانی تولید‌کننده مبارزه کنیم، به این شکل که آیین‌نامه ای اخلاقی را، همان طور که پیش‌تر در مورد[رمان] آسیموف گفتیم، در نرم‌افزار و سخت‌افزار به کار ببندیم و محیط مجازی را بر اساس آن راه اندازی کنیم. ولی همان طور که پیش تر گفتیم، از هیچ راهی نمی‌توانیم پیامدهای این کارگزارهای مجازی با چنین آیین‌نامه ای کار گذاشته شده‌ای را پیش بینی کنیم. پرسش هم چنان باقی است. آیا محیط مجازی به آیین‌نامه پای بند می‌ماند یا آن را تغییر می‌دهد؟ و تا چه اندازه؟ هرگز نمی توان به این پرسش پاسخ داد. بنابراین، آموزش درباره مسئولیت استفاده از محیط مجازی به کاربر می‌تواند در این مورد کمک کند. این مسئولیت باید بر اصول اخلاقی و رفتاری صحیحی در رابطه با واقعیت مجازی استوار باشد. کولین بیردون79 سه اصل سنتی را که با واقعیت مجازی ارتباط کاملی دارد از فیلسوفان صاحب نام نقل می‌کند: 
1- انسان نباید با رایانه کارهایی را انجام دهد که بدون80 رایانه مسئولیت آن کار را نمی پذیرد(Floyd.1985). 2- باز بودن  پیوسته باب واقعیت مجازی برای همه، جنبه‌های تعیین‌کننده زندگی در توسعه اجتماعی، شناخت روابط بین افراد و داوری عاطفی را تحلیل می‌برد(Aorn.1991). 3- از رایانه‌ها باید در مواردی استفاده شود که کار با رایانه و استفاده درست از نماد81 روش های مناسبی برای پرداختن به واقعیت باشد(Floyd.1985).
بگذارید فریب را هم به این موارد اضافه کنیم. این همان اصل اخلاقی کانت است، زیرا هر کاربر می‌تواند خود را به جای دیگری جا بزند و دیگران را بفریبد. مثلاً سناریوی واقعیت مجازی زیر را در نظر بگیرید: شما با خوشحالی ازدواج کرده اید. در عین حال از مشکلات روابط نامشروع با خبر هستید و آنها را تایید نمی‌کنید. فهرستی از دلایل قانع‌کننده شما مسایل بهداشتی(بیماری های مقاربتی STDs،82 مثل ایدز، قبا83 و سفلیس)، پیامدهایی چون بچه های ناخواسته و نامشروع، محظورات اخلاقی در قبال خیانت و احترام به خود را شامل می شود . اما شما در مواجهه با واقعیت مجازی با فرد بسیار زیبایی با جاذبه جنسی زیاد همراه می‌شوید. ناگهان در می یابید که وارد روابط جنسی نامشروع شده‌اید که البته در دنیای واقعی چنین نیست. محیط مجازی تمامی‌ قید و بندهای شما درباره امور نامشروع را از میان برداشته است. در اینجا شما می‌توانید اعمال خود را حتی با تمسک به نظریه اخلاقی سودگرایانه توجیه کنید. آیا این مسأله نوعی آشفتگی در نظریات اخلاقی سنتی است یا تعریف تازه‌ای از این نظریات طبق واقعیات جدید مربوط به VRاست؟ این سناریو تعریف بیردون از واقعیت مجازی را منعکس می کند، یعنی «آشفتگی عمیق فلسفی».

فهرست منابع
1. Kanade, Takeo, Michael Reed, and Lee Weiss. “New Technologies and Applications in Robots.” Communications of the ACM 37(3), 1994, pp. 58–67.  //  2. Maes, Pattie. “Agents that Reduce Work and Information Overload.” Communications of the ACM 37(7), 1994, pp. 30–40.  //  3. ——. “Artificial Life Meets Entertainment: Lifelike Automous Agents.” Communications of the ACM 38(11), 1995, pp. 108–117.  //  4. Edmonds, Ernest, Linda Candy, Recheal Jonas, and Bassel Soufi. “Support for Collaborative Design: Agents and Emergence.” Communications of the ACM 37(7), 1994, pp. 41–47.  //  5. Etzioni, Oren, and Daniel Weld. “A Softbolt-Based Interface to the Internet.” Communications of the ACM 37(7), 1994, pp. 72–76.  //  6. Mitchell, Tom, Rich Caruana, Dyne Feritag, John McDermott, and David Zabowski. “Experience with a Learning Personal Assistant.” Communications of the ACM 37(7), 1994, pp. 81–91.  //  7. Selker, Ted. “A Teaching Agent That Learns.” Communications of the ACM 37(7), 1994, pp. 92–99.  //  8. Riecken, Doug. “M: An Architecture of Integrated Agents.” Communications of the ACM 37(7), 1994, pp. 107–116.  //  9. Turing, A.M. “Computing Machinery and Intelligence” Mind 59, 1950, pp. 433–460.  //  10. Munakata, Joshironi. “Commercial and Industrial AI.” Communications of the ACM 37(3), 1994, pp. 23–25.  //  11. Luger, George, and William Stubblefield. Artificial Intelligence (2nd ed.). Reading, MA: Benjamin Cummings, 1993.  //  12. Asimov, Isaac. The Rest of the Robot. New York: Doubleday, 1964.  //  13. Williamson, Jack. “With Folded Hands.” In The Best of Jack Williamson. New York: Ballantine, 1978, pp. 154–206.  //  14. Waldrop, Mitchell. “A Question of Responsibility.” In R. Dejoie, George Fowler, and David Paradice (eds.), Ethical Issues in Information Systems., Boston, MA: Byrd & Fraser, 1991.  //  15. Beardon, Collins. “The Ethics of Virtual Reality.” Intelligent Tutoring Media 3(1), 1992, pp. 22–28.   //  16. Minsky, Marvin, and Doug Riecken. “A Conversation with Marvin Minsky About Agents.” Communications of the ACM 37(7), 1994, pp. 23–29.   //  17. Carbonell, Jaime. Subjective Understanding: Computer Models of Belief Systems. Ann Arbor: University of Michigan Press, 1979.  //  18. McAdams, Mindy. “Cyberspace: Two Flavors” http://www .well.com/user/mmcadams/.  //  19. Gibson, William. Neuromancer. New York: Ace Books, 1984.  //  20. Vickers, D.L. “Sorcerer’s Apprentice: Head-Mounted Display and Wand.” In J.A. Bist and H.L. Hast (eds.), A Symposium on Visually Coupled Systems: Development and Applications. AMD, TR 73–1, 1972.  //  21. Singh, Gurrinder, Steven Feiner, and Daniel Thalmann. “Virtual Reality: Software and Technology,” Communications of the ACM 39(5), 1996, pp. 35–36.  //   22. Bryson, Steve. “Virtual Reality in Scientific Visualization.” Communications of the ACM 39(5), 1996, pp. 62–71.  //  23. Bayani, Salvador, Marcos Fernandez, and Mariano Pevez. “Virtual Reality for Driving Simulation.” Communications of the ACM 39(5), 1996, 72–76.

پی نوشتها:
1- Florence Yozefu.  //  2- research university.  //  3- wearable robitc gear.
4. Catchmenot (catch me not)(رهایم مکن). 
5- artificial intelligence.  //  6- cyberspace.   //  7- virtual reality.   //  8-first-order logic.
9. fuzzy logic: منطقی با تقلید از حداقل هوش انسانی و استفاده از عوامل متغیر مثل زمان و احتمال در قالب اعداد برای دادن پاسخ‌های غیر دقیق به سوال‌ها. [م].
10- Alan Turing.  //  11-Autonomous agents.  //  12-Marvin Minsky.  //  13-Alan key.  //  14- Rodney Brooks.  //  15- Autonomous Land Research Project.  //  16- Advanced Research Project Agency.  //  17- Unmanned Ground Vehicle.  //  18-Prometheus Project.
19. Europe's Eureka Project  (Eureka=یافتم، کلمه معروف ارشمیدس).
20-Pathfinder rover.  
21. sojourner(مقیم).
22-remote-controlled Mars vehicle.  //  23-AMBLER Project.  //  24-a six-legged walker.  //  25-Dante Project.  //  26-MT. Erebus.  //  27-Micro-electromechanical.  //  28-JULIA.  //  29-A text-based Multi-User simulation Environment.  //  30-navigation.  //  31-PHIL.  //  32-knowledge navigator.  //  33-John Scalley.   //  34-Apple.  //  35-SOFTBOT.  //  36- expressive.  //  37-backtrack.
38. Calendar APprentice (کار آموز تقویم).  //  39. cognitive adoptive computer help(کمک رایانه شناختاری انتخابی).
40-George Lugar.  //  41-William Stubblefield. 
42 - این تلقی ریشه در فرهنگ مسیحی در داستان آفرینش دارد که آدم و حوا از درخت معرفت منع شدند. این تلقی منشأ واکنش های افراطی در دوره ی جدید در مسأله ی رابطه ی میان علم و دین شده است که در جای خود باید بررسی شود. از نظر اسلام، آن چه به فاجعه منجر می‌شود علم و کسب علم نیست، بلکه اخلاق شیطانی و تربیت نشدن انسان است.
43-Frankenstein monster syndrome of fear.  //  44-Isaac Asimov.  //  45-Jack Williamson.  //  46-with folded hands.  //  47-Asimovian Prime Directive.  //  48-Weizerburm.  //  49-Floyd.  //  50-Marvin Minsky.  //  51-Hans Moravic.  //  52-Mitchell Waldrop.  //  53-Carbonell.  //  54- inaction.   //  55-Jim Carbonell.  //  56-Toshinori Munakata.  //  57-fuzzy systems.  //  58-Mary Shelly’s Frankenstein.  //  59-automation.  //  60-naysayer.  //  61-Mindy McAdams.  //  62-William Gibson.  //  63-Ian Sutherland.  //  64-D.L. Vickers.  //  65-transducer.  //  66-image generator.   //  67-objects.  //  68-contents.  //  69-visualization.  //  70- Artificial Life Interactive Institute Video Environment.  //  71- Massachusetts Institute of Technology.  //  72-Center for Information Enhanced Medicine.  //  73-John Hopkins Universty.  //  74-University of Singapore.  //  75- Simulador Reativo de Conduccion de Automobiles.  //  76 -Laboratorio Intagrado de Sistemas Intelligentes y Tecnologias de la Informacion en Trafico.  //  77 -University of Valencia , Spain.
78. frontier (مرز، سرحد). 
79-Collins Beardon.  //  80-exposure.  //  81-symbol manipulation.  //  82- sexually transmitted disease.  //  83-herpes.

محمدرضا سرافرازی اردکانی

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">
تجدید کد امنیتی