تازهترین یافتههای اخلاق رایانهای، هوش مصنوعی دنیای مجازی و واقعیت مجازی،جوزف میگاکیزا، رضا بخشایش
http://www.ettelaathekmatvamarefat.com/new/index.php?view=article&catid=20%3Amag-4&id=364%3A1390-05-03-15-33-13&format=pdf&option=com_content&Itemid=30
تازهترین یافتههای اخلاق رایانهای
هوش مصنوعی دنیای مجازی و واقعیت مجازی
جوزف میگاکیزا
رضا بخشایش
کتاب مسائل اخلاقی و اجتماعی در عصر اطلاعات نوشته جوزف میگا کیزا یکی از مهمترین آثار منتشر شده در حوزه اخلاق فناوری اطلاعات است. ویراست چهارم کتاب در سال 2010. منتشر شد که با پاره ای اصلاحات و افزوده ها بر ویراست قبلی آن همراه است. ویراست سوم این کتاب توسط اقای دکتر رضا بخشایش ترجمه شده که از سوی دبیرخانه شورای عالی اطلاع رسانی در دست چاپ است .مقاله حاضر ترجمه فصل دهم آن کتاب است. مولف در این فصل به طرح موضوع هوش مصنوعی و نگرانی هایی که از امکان فعالیت های دستگاه هایی با هوش مصنوعی در جهان واقعی ما انسان ها پیش می آید ، می پردازد. اگر روزی ماشین های ساخته شده توسط بشر با ضریب هوشی یکسان و یا حتی بیشتر از هوش خود انسان در زندگی ما مداخله کنند و دست به کار شوند ، مسئولیت اخلاقی کارهای انجام گرفته توسط ان ها بر عهده چه کسی است ؟ آیا کسانی که به تولید چنین ماشین هایی دست زدند ، مسئول کلیه کارهایی اند که ماشین های مذکور انجام می دهند؟
یک داستان...
نوشیدنی آخر! کسی می خواهد؟
فلورانس یوزفو1 دانشمند برجسته ای است که ریاست آزمایشگاه پژوهشی روباتیک را در یکی از ده پژوهشکده2 برتر بر عهده دارد. فلورانس سرگرم طراحی چرخ دنده روباتیک پوشیدنی بوده است. این دستگاه می تواند کنترل رانندگی خودرو را از طریق راننده ای که دستگاه را پوشیده به دست بگیرد. این روبات که "کچ مینات"3 نام داشت در تستهای آزمایشگاهی که فلورانس و دستیارانش آن را پوشیدند موفقیتآمیز عمل کرد. اما هنوز هیچ برنامه ای بیرون از آزمایشگاه انجام نشده بود. فلورانس در نظر داشت روزی آن را آزمایش کند اما تا به حال فرصت این کار را نداشته است.
فلورانس می خواست شب سال نو به دیدار مادر و خواهرش برود که حدود 100 مایل دورتر از او زندگی می کردند. این برایش فرصت خوبی بود که به مادر و خواهرش نشان بدهد در چند ماه اخیر مشغول چه کاری بوده است. بنابراین، تصمیم میگیرد "کچ مینات" را هم با خود ببرد. عصر روز قبل بار خود را در ماشین می بندد و صبح روز سفر به آزمایشگاه میرود و دستگاه روبات را داخل ماشین می گذارد. او این صد مایل راه را کمیسریع تر از معمول طی میکند و زودتر به خانه مادرش میرسد. هنگام غروب از مادرش خداحافظی میکند و طبق قرار به آپارتمان خواهرش سر می زند. در آپارتمان خواهرش چند نفر از دوستانش را می بیند و بلافاصله وارد فضای جشن و شادی میشوند.
فلورانس مشغول نوشیدن و شادی میشود و زمان را فراموش می کند. آنها داستانهای زیادی برای گفتن و شنیدن داشتند. نیمه شب، حوالی ساعت یک صبح و بعد از نوشیدن به سلامتی هم، تصمیم می گیرد آنجا را ترک کند و با ماشین به آپارتمان خود برود. قبلاً قول داده بود که دوست خود را در نامزدی از پیش برنامهریزی شده ای همراهی کند. فلورانس با وجود آن که بسیار مست بود و بر خلاف توصیه و اصرار دوست خود که نباید رانندگی کند، دستگاه "کچ می نات" را به تن میکند و ظرف چند دقیقه به راه میافتد. سی دقیقه بعد او با سرعت 70 مایل در ساعت در حالی که به خواب عمیقی فرو رفته در حال حرکت است.
حدود ساعت 5 صبح سنجابی که در حال جست و خیز دور و بر ماشین است او را از خواب بیدار می کند. او ماشین را کنار خیابان آپارتمان مجتمع4 مسکونی خود پارک کرده بود و با سلامت به خانه رسیده بود. فلورانس نمیدانست کی و از کجا رد شده و در طول مسیر چه اتفاقاتی افتاده بود. اگر چه شگفت زده و مبهوت بود و احساس گناه میکرد، خوشحال بود که دستگاه "کچ مینات" خوب کار کرده. فلورانس تصمیم گرفت که برای دستگاهش بازاریابی کند. در این فکر بود که چه قیمتی را باید برای آن در نظر بگیرد.
چرا فلورانس احساس گناه میکرد؟ آیا فلورانس حق دارد برای دستگاه "کچ مینات" بازاریابی کند؟ اگر در بازگشت به خانه با ماشین مشکلی پیش میآمد، آیا فلورانس مسئول آن بود؟ چه کسی مسئول بود؟
آیا بازاریابی برای دستگاه "کچ مینات" اخلاقی است؟
در باره لوازم اخلاقی هوش مصنوعی به خصوص "کچ مینات" گفت و گو کنید.
1. آشنایی
هوش مصنوعی(AT )،5 دنیای مجازی(CP )6 و واقعیت مجازی(VR)7 همه تازهترین یافته های شگفت آور تکنولوژیاند که محیط هایی نو با امکانات نامحدود عرضه می کنند. محیط هوش مصنوعی که شاید بر مبنای ارزش انسانی، با امکان فهمیدن و گسترش دانش برای کارگزارهای هوشمند کار میکند، به این منظور[طراحی شده است] که ما را در حل مشکلات انسانی کمک کند. محیط دنیای مجازی واقعیت حضور فرضی اشیا و هم گنان را کاوش میکند. انسان می داند که آنها وجود دارند. اما نمیداند «واقعاً» چه کسی در کجای جهان خارج وجود دارد. محیط واقعیت مجازی با طراحی و ساخت ابزارهای بهتر برای فهم پیچیدگیهای جهان ما به واقعیت «عوالم دیگر» شباهت دارد. به این ترتیب، انسان را به کشف شیوه بهتری برای زندگی نزدیک میکند. انسان ها به طور طبیعی کنجکاو اند و هر زمان که ممکن باشد به جست و جوی پدیده های نو می روند. بدین ترتیب، تازه ترین یافته های بشر که ما در این فصل در باره آنها بحث میکنیم، افراد مختلفی را به خود جلب کرده است. بعضی را برای تجربه حضور در دنیای مجازی، بعضی را برای درک هیجانات واقعیت مجازی و دیگرانی را برای جست وجو در کاربرد دانش در حوزههایی که هنوز ناشناخته مانده اند. انسان ها هر جا و هر زمان که به این محیط کشیده میشوند در آن مشارکت دارند و همین طور که اهداف اجتماعی فردی را پی میگیرند، آنها را امتحان میکنند و با این مسایل درگیر میشوند. این فصل تأثیرات اعمال بشری را در این محیط ها بررسی می کند. در اینجا، مشکلاتی را که در مقام داوری نسبت به مسئولیت اعمال فردی در نتیجه این محیط ها با آنها مواجه میشویم، تجزیه و تحلیل می کنیم. در هر محیطی، مسئولیت بر دوش دو طرف است: تولیدکننده و کاربر.
2. هوش مصنوعی
هوش مصنوعی رشته ای علمی است که با هوش انسانی برابری می کند. پیشرفتهای اخیر در هوش مصنوعی و امکانات نهفته ظاهراً بی مرز آن برای حل مشکلات زندگی واقعی، کاربردهای تکنولوژی رایانه ای را به حوزههای جالبی کشانده است. حوزه هایی که بیش از این تصور می شد به هوش عمیق انسان نیاز دارد. رفتار هوشی انسان بسیار گوناگون و فاقد تعریف دقیق است. پیش بینی این رفتار هم دشوار است، چه رسد به فهم آن. از این رو، بیشتر مطالعات در مورد هوش مصنوعی به حوزههای محدودی میپردازد که نیروی عقل و تفکر بشری در آن روشن است و کلیت رفتار هوشی انسان در آن حوزهها را به خوبی میتوان درک کرد.
این حوزهها با جنبههایی از هوش انسانی سروکار دارد که میتوان آنها را به طور رمزی با منطق درجه اول8 مثل بازی و فهم طبیعی زبان نمایش داد. حوزههای دیگر که میزان بالایی از هوش بشری را نشان میدهد مثل فرایند تفکر الگوی بازشناسی و مفهومسازی هنوز انتزاعی هستند و به سختی میتوان آنها را درک کرد. در هر حال، بیشتر مشکلات دنیای واقعی برای هوش بشری چندان دشوار نیست. اما برای هوش ماشینی هنوز حل نشدنی است. با علم به این مسأله که مستلزم محاسبات عددی و بهبود قدرت محاسبه در رایانه های جدید است، سرعت پژوهش در هوش مصنوعی برای انتقال از آن حوزههایی که در رمزها دستکاری میشود به سمت محاسبات عددی به کندی صورت میگیرد. این وضعیت، هوش مصنوعی را گوناگون و قابل اجرا میکند و گنجینه تکنیکهای آن را افزایش میدهد. اما به دلیل همراه نشدن حس و فهم مشترک با تکنیکهای هوش مصنوعی، پیشرفت در شرایط واقعی کند بوده است. مگر در حوزه هایی مثل روباتیک و آموزش ماشینی که به دلیل کاربردی بودن آن در زندگی روزمره جذابیت بیشتری داشتهاند. در عین حال، این شناخت درهای جدیدی را بر روی پژوهش های هوش مصنوعی در حوزه هایی مثل شبکههای عصبی و نظریه منطق فازی9 باز میکند. این امر موجب میشود دانشمندان به روش های نو برای دست یابی به هوش ماشینی نگاه جدیدی بیندازند و در عین حال به مطالعه آثار اجتماعی و اخلاقی و به این که مسؤلیت رفتارهای چنین ماشین هایی را، چهطور تقبل کنند روی بیاورند. در این بخش، به لوازم اجتماعی و اخلاقی در حوزههای فعال نظر میاندازیم که در هوش مصنوعی پیشرفت کردهاند و در حال تثبیت هستند.
2-1. پیشرفتها در هوش مصنوعی
الن تورینگ10 سال 1950 با دست زدن به آزمایش های ماشین هوش بازی ای را بین رایانه و انسان به راه انداخت. این بازی نشان میداد که آیا ماشین میتواند فکر کند یا نه. از آن زمان علاقه به ساخت ماشینهای هوش، که عموماً به کارگزارهای خودمختار11 شهرت داشتند، در حوزه هایی از AI که در آن بهراحتی از هوش الگوبرداری کرد، رشد ثابتی داشته است. حوزههایی مثل بازی، سیستم های تخصصی، فهم طبیعی زبان، شبکه های عصبی و روباتها.
کارگزارهای خودمختار پدیده تازهای در هوش مصنوعی نیست. از زمان تورینگ، دانشمندان زیادی همچون ماروین مینسکی12، الن کی،13 و رادنی بروکس14 در زمان های مختلف رفتار این کارگزارها را مطالعه کردهاند و احیاناً کارگزارهای خودمختاری را ساخته اند. [اصطلاح] کارگزار خودمختار نامیکلی است که هم سختافزار و هم کارگزارهای هوشمند نرمافزاری را در بر میگیرد. کارگزارهای خودمختار بسته به ماهیت محیط ممکن است اَشکال مختلفی به خود بگیرد. این گزارهها مثلاً در محیط سه بعدی واقعی روبات اند، در حالی که در محیط های دو بعدی برنامه های رایانه ای هستند که به آنها کارگزارهای هوشمند میگویند.
به تدریج که پژوهش در زمینه هوش مصنوعی پیشرفت میکند، حوزه کاربرد کارگزارهای خود مختار بیشتر می شود. مثلاً از روبات ها در حوزه های متعددی مثل نظارت، اکتشاف، و محیط های خطرناک و غیر قابل دسترس استفاده شده است. سیستم های بصری بهتر، سنسورها، و زبان های برنامه ریزی ساده تر موجب باهوش تر شدن روبات ها شده اند. رشته روباتیک در حال گسترش است وحوزههایی چون ادراک، شناخت و به کاربستن آن را در بر میگیرد موفقیت در این حوزه ها در صنعت به بهترین شکل خود را نشان میدهد. به عنوان مثال، در ادراک، ساخت خودروهایی با هدایت بصری خودمختار رشد قابل ملاحظه ای داشته است. پروژه ها در این حوزه عبارت اند از: پروژه تحقیقات زمینی خودمختار(ALV)15 برای آژانس پروژه تحقیقات پیشرفته (ARPA )16 و خودرو زمینی بدون سرنشین(UGV)،17 هم در ایالات متحده پروژه پرومثوس18 از پروژه اروپایی اروکا،19 و هم پروژه خودروی شخصی(PV) از MITI ژاپن. اینها مهمترین پروژه های روباتیک هوش مصنوعی هستند. علاوه بر خودروهای خود راننده که در پروژه های بالا از آنها نام بردیم، از روبات ها برای پرداختن به مواد خطرناک و دستیابی به حوزه های دوردستی که ورود در آن برای انسان ها بی خطر نیست استفاده میشود. چنین پروژه های روباتی عبارت اند: از راه یاب سیار20 موسوم به ساجرنر،21 خودروی کنترل از راه دور مارز،22 پروژه امبلر،23 راه نورد شش پا24 برای عبور در ناحیههای ناهموار و پر چالش و پروژه دانته25 که از آن برای کاوش در آتشفشان کوه ایرباس26 استفاده میشد. از روبات هایی مثل دانته می توان برای اکتشافات برون زمینی و زیر دریایی نیز استفاده کرد.
اگر چه این پروژه ها مخلوقات مکانیکی بزرگی را در بر می گیرد، تحقیقات هم چنان حجم روبات ها را کوچک تر می کند . سیستم های ریزالکترومکانیکی27 یا MEMs، در حال پرطرفدار شدن هستند. کارکرد این مخلوقات کوچک به ویژگی های مکانیکی بیشتر از ویژگی های الکترونیکی وابستگی دارد. ریزالکترومکانیک ها به راحتی تغییر می کنند و فضای پیرامون را تحت کنترل خود در میآورند. از آن جا که این دستگاه ها کوچکاند میتوان آنها را ترکیب یا ادغام کرد تا بسیاری از وظایف مفید را انجام دهند. با پیشرفت تکنولوژی پالایش شیوه ها، استفاده از روبات ها در زندگی روزمره انسانها رایج تر می شود. روندهای تولید و صنعت روز به روز بیشتر به روبات ها وابسته می شوند. مثلاً برای مونتاژ رایانه های شخصی تقریباً به طور کامل از روبات ها استفاده می شود. از کارگزارهای هوشمند نرمافزاری هم در حوزههای گوناگونی استفاده میشود، حوزه هایی مثل تشکیل پرونده برای اطلاعات و بازیابی آن، مدیریت پست، جدول بندی همایش ها و در گزینش فعالیت ها و مواردی که به کاربران مربوط میشود و به کار آنان می آید. کارگزارها هم چنین به کاربران در حوزههای دیگر کمک می کنند. کمکهایی مثل پنهان کردن پیچیدگی کار در دست اقدام، آموزش و همکاری با کاربر در حوزههای خاص کاری و نظارت بر پیشرفت کارهای در دست اقدام از جمله ی این کمک ها هستند.
کارگزارهای هوشمند در چند حوزه الگوهای نخستینی داشته اند، از جمله دستیار شخصی، جدول بندی نشستها، رسیدگی به نامههای الکترونیکی، فیلترسازی و تفریح. مثلا، جولیا،28 کارگزار خودمختار در محیط چند کاربره شبیهسازی شده مبتنی بر متن (MUES)،29 کارهایی را انجام میدهد مثل نگهداری سخن در دستگاههای پخش، شنیدن اتفاقی مکالمات و سخن پراکنی درباره آنها، رله کردن پیام ها بین دستگاههای پخش و برطرف کردن مشکلات مسیریابی30 در دستگاههای پخش. در زمینه دستیار شخصی، فیل31 در مسیریاب دانش32ِ جان اسکالی33 توسط اپل34 که نقش استاد، مدیر منابع و کارگزار بازیابی دانش را بازی میکند، مثالی برای کارگزار هوشمند در دستیار شخصی است. به علاوه در دیگر حوزه ها پژوهش های جاری مثل پروژه ACDS وجود دارد که به دنبال به کارگیری کارگزارها در ارتباط با روند طراحی اند. در دانشگاه واشنگتن، پروژه روبات نرمافزاری موسوم به سافت بات35 در حال ساخت است. این روبات با دامنه گسترده ای از منابع اینترنتی مثل FTP، TELNET، MAIL و دیگر دستور العمل های کاربردی برای فایل ها به منظور تهیه میانجی کامل و رسایی36 در اینترنت در داد و ستد است. به علاوه، این پروژه بازگشت آسان از مسیر طی شده37 از ابزاری اینترنتی به ابزار دیگر را بر پایه اطلاعات جمعآوری شده در زمان اجرا و این که چه ابزاری را بنا به اقتضا در چه سکانسی به طور فعال انتخاب کند فراهم میکند. در زمینه یادگیری در حال حاضر تعدادی دستیار شخصی وجود دارد، از جمله cap 38 که از جدول اولویت بندی کاربر از خلاصه تجارب کاری او تا پنج سال[برنامهریزی کاری او را] یاد میگیرد و coach 39 که تجارب کاربر را ثبت و ضبط میکند تا کمک یار شخصی برای کاربر به وجود بیاورد. این دستیار با ملاحظه اقدامات کاربر برای ایجاد الگوی انتخابی که دستگاه مناسبی را برمی گزیند،[به طور خودکار برنامهریزی کاربر را] یاد میگیرد. M کارگزار نرمافزاری دیگری است که چندین "کارگزار استدلال" را با هم هماهنگ می کند. نتایج مشترک این کارگزارها کمک رسانی به کاربری است که با دیگر کاربران در اتاق کنفرانس الکترونیکی همکاری میکند.
2-2. هوش مصنوعی و اخلاق
انسان ها به طور طبیعی برای داشتن زندگی خوب تلاش میکنند. آنها با کسب دانش و تولید ماشین های هوشمند برای انجام بیشتر کارهایی که یا خود قادر به انجام آن نیستند یا تمایلی به انجام آن ندارند، به سوی این هدف حرکت میکنند. اما به گفته جرج لوگار40 و ویلیام استابلفیلد41، این مفهوم و تلقی که تلاش انسان برای کسب دانش نقض قانون خدا است ریشه ای عمیق در ما دارد.42 ما هنوز باور داریم که طلب دانش سرانجام به فاجعه منجر خواهد شد. پیشرفت های اخیر در علم و فلسفه این باور را تحت تأثیر قرار نداده بلکه بر عکس علایم ترس هیولایی فرانکشتاینی43 را در پیشرفت های جدید در هوش به ویژه هوش ماشینی به وجود آورده است. این ترس ریشه مناقشات در زمینه هوش مصنوعی است و این امکان نهفته را دارد که مانع پیشرفت آن شود. رمان نویسانی مثل آیزک آسیموف 44 و دیگران از هوش مصنوعی نوشته اند. مثبت ترین آنان جک ویلیامسون45 است که در رمان «با دستان بسته»46 دانشمند جوانی را به تصویر میکشد که طبیعت ویران گر بشری او را از خواب و خیال بیدار کرده است. بشری که روبات تولید می کند تا از نخستین دستور آسیموف47 تبعیت کند: «برای خدمت و اطاعت و پاسداری از انسان ها در برابر آسیب».
در این داستان روباتها نسخه بدل انسان هستند و همه کارهایی را که او میخواهد برایش انجام میدهند. البته تا زمانی که انسان به اشتباهی که مرتکب شده پی میبرد. اما دیگر دیر شده است. انسان خود را بی خاصیت کرده است. «انسان ها گوشه ای بیکار نشستهاند، زیرا کاری برایشان نمانده تا انجام دهند». علم ممنوع شده است زیرا آزمایشگاه ها برای انسان خطرناک اند. نیازی به کسب دانش نیست زیرا روبات ها هر کاری را بهتر از انسان انجام می دهند. «هدف و امید از دست رفته است. هیچ هدفی برای بودن وجود ندارد. انسان میخواهد بپرسد چرا این دانشمند جوان نمیتواند این روبات ها را بکشد. او سعی میکند اما روبات ها جلوی او را میگیرند، زیرا او دارد با این کار دستور نخستین را نقض می کند. در این میان روبات ها تکثیر میشوند. فلاسفه نیز از خیلی پیش تر ها این ترس را ابراز کرده بودند. به گفته ویزربرم48، غیر اخلاقی است که سیستم رایانه ای را به جای عشق، فهم و احترام انسانی بین اشخاص به کار ببریم. فلوید49 بر این باور است که از رایانه ها فقط در صورتی باید استفاده کرد که «بیرون از قلمرو کاربرد رایانه، میدان کافی برای دیگر تواناییهای بشری و اشکال پایدار تجربه باقی باشد». ماروین مینسکی50 این وضعیت را به پاردوکس قدیمیدرباره آموزش برده تشبیه میکند: «اگر نگذارید بردگان چیز زیادی یاد بگیرند، مفید بودن آنان را محدود کرده اید. اگر به آنان کمک کنید که از شما زرنگتر باشند، دیگر نمیتوانید به آنان اعتماد کنید تا برنامه های بهتری را نسبت به برنامههای شما طراحی کنند.»
هوش مصنوعی برای همه ما پارادوکسی اخلاقی و اجتماعی را به نمایش میگذارد. ما از این دستگاه ها میخواهیم کارهایی را که خودمان نمیتوانیم انجام دهیم برایمان انجام دهند. ما در این کارها مهارت نداریم، با این حال نمیخواهیم که دستگاه ها مهارت خیلی زیادی هم به دست بیاورند. اگر فقط بتوانیم مطمئن باشیم که به قول هنس موراویک،51 این دستگاه ها «مانند خود ما ذهنی معصومانه» دارند، یعنی هم در فضیلتها، حقایق و هم در ارزش ها به ما شبیه باشند، احتمالاً هیچ شرط واعتراضی نخواهیم داشت. همینطور که این کارگزاران خود مختار با هوشتر و بیشتر و بیشتر مورد استفاده واقع وپذیرفته میشوند، استقلال و مسئولیت بیشتری به دست میآورند. همان طور که می دانید پیش از این فقط انسان از چنین استقلال و مسئولیتی برخوردار بوده است.
این مسأله پرسش های بسیاری را درباره آینده این کارگزارهای خود مختار، ارتباطشان با انسان، رفتارشان و احساساتشان مطرح میکند. از جمله پرسش های زیر:
- انسان چگونه این کارگزارهای هوشمند را درک می کند؟
- این کارگزارهای خود مختار چه احساسی درباره انسان ها خواهند داشت؟
- آیا انسان اجازه میدهد که این «مخلوقات» هوشمند هم چنان باهوشتر و باهوش تر بشوند؟ حتی با وجود این که میدانند نتیجه نهایی، برتری آنان بر هوش انسانی است؟
- آنها چگونه وظیفه ای را که بر عهده دارند انجام می دهند؟
- آیا آنها فقط کاری را که باید انجام دهند، انجام می دهند؟
- چه کسی مسئول اعمال آنها است؟
- آیا این کارگزارها کار را از صاحبان خود بهتر انجام می دهند؟
- آیا این کارگزارها سرانجام نیاز به مهارت های بشری را از بین خواهند برد؟
- مهم ترین پرسش این است که ما چه حدی از قدرت و استقلال را باید به این مخلوقات بدهیم و آیا این کارگزارها سرانجام استقلال انسان و در نتیجه سرنوشت بشر را در اختیار خود خواهند گرفت؟
به گفته میچل والدراپ52، به تدریج که این کارگزارهای خود مختار باهوش تر میشوند، ما نیازمند نظریه و اجرایی برای ماشین اخلاقی می شویم که آییننامه اخلاقی را دراین مخلوقات کار بگذارد. چیزی با حال و هوای قوانین روباتیک و آسیموف و سلسله مراتب اهداف کاربونل53.
آیزک آسیموف آییننامه رفتار که آن را قوانین روبات ها نامیده در شخصیت داستانی روبات کار گذاشته و آن را با این ویژگیها خلق کرده است:
1- روبات نباید به انسان آسیب برساند یا با ترک فعل54، اجازه دهد انسانی در معرض آسیب قرار بگیرد.
2- روبات باید دستورهای صادر شده از سوی انسان ها را اطاعت کند، مگر زمانی که این دستورها با قانون اول در تعارض باشند.
3- روبات باید از موجودیت خود تا جایی که با قانون اول و دوم در تعارض نباشد محافظت کند.
به گفته جیم کاربونل55، برنامهها باید تحت کنترل سلسله مراتبی از اهداف باشند که به عنوان راهنما و دستور معین در پردازش استدلالی برنامه عمل کنند. این سلسله مراتب باید طوری تنظیم شود که آییننامه اخلاقی را در برنامه وارد کند. اما سؤال این است که آیا روبات ها و برنامه های هوشمند، آن را دنبال میکنند؟ تا چه اندازه؟ آیا می توانند آییننامه را تغییر دهند؟ هر قدر هم تلاش کنیم مانع آنها از این کار شویم؟ کاربونل تصور درستی درباره این موضوع دارد، اما مسایلی را به جای میگذارد که هنوز نیازمند پاسخ اند.
2-3. آینده نقش کارگزارهای خودمختار
آیا انتظارات بیش از حد از هوش مصنوعی هیاهو درباره هیچ نیست؟ آیا هوش مصنوعی از زمان سخن تورینگ در دهه 1950 که پیش بینی کرده بود انسان تا سال 2000 میتواند ماشینی مصنوعی بسازد، هوش مصنوعی هیچ کار شگفت انگیزی برای انسان انجام داده است؟ به گفته افرادی چون توشینوری موناکاتا56 هوش مصنوعی رشد تأثیرگذاری در تولید، محصولات مصرفی، دارایی، مدیریت و پزشکی داشته است. هم چنین در سیستمهای مهندسی دانش، ادراک، فهم زبان بشری، سیستم های فازی57 و الگوسازی برای مغز و تکامل، پیشرفت های چشمگیری به دست آورده است.
داستان های رایج در مورد موفقیت هوش مصنوعی در حوزههایی مثل ماشین بینا، فهم کلام و پردازش دانش عقل سلیم را راضی نمی کند. بنابراین پیشرفت در پژوهشهای هوش مصنوعی به عنوان بازشناسی هوش انسانی در بهترین شکل اجمالی و مبهم است. پیشرفت در هوش مصنوعی را چه پیشرفت در کار با رایانه که با مشکل حس مشترک رو در رو مواجه نیست بدانیم و چه حوزه شبیهسازی هوش بشری که شیوه های حس مشترک را در خود میپذیرد، آینده هوش مصنوعی هم چنان مناقشه برانگیز است. در پاسخ به این پرسش که آیا همکاری هوش مصنوعی با انسان خوب است یا بد، دو مکتب شکل گرفته است.
اولین مکتب متعلق به کسانی است که دید تاریکی نسبت به همکاری های هوش مصنوعی دارند و همه فعالیت های آن را پژوهش در مسیر غلط و پژوهش «دانشمند دیوانه» در حال و هوای فرانکشتاینِ مری شلی58 می داند. آنان از نگرانی های زیر سخن می گویند:
1- نبود تدابیر ایمنی قابل اعتماد برای رفع نگرانی های مربوط به حریم خصوصی و جلوگیری از محاسبات کنترل نشده.
2- رایانه ها که مصون از خطا و صاحبان حقیقت مطلق تلقی شده اند، سرانجام به نقطه ای میرسند که فراتر از آن فهم شان متوقف می شود.
3- اگر بیشتر کارهای محل کار را به رایانهها بسپاریم، افراد به تدریج مسئولیت های خود را رها کرده و می گویند: «رایانه ها این یا آن کار را انجام داده اند».
4- دیجیتالی کردن اطلاعات مربوط به افراد و سپردن آن به دستگاه افراد زیادی را نگران می کند. آنها نمی دانند رایانه چه اطلاعاتی در باره آنها دارد و چه میتواند با آن اطلاعات بکند.
5- اگر این دستگاه ابر هوشمند اطلاعات زیادی درباره فرد داشته باشد، چه اتفاقی در مورد او خواهد افتاد؟ آیا آن فرد ناخواسته تبدیل به شخصیتی بی پناه و سرگردان نمیشود؟
6- این که این کارگزارها تمام اطلاعات مربوط به هر فرد را در اختیار دارند، یعنی او را کاملاً در کنترل خود گرفتهاند.
7- لازم است مردم احساس کنند فعالیت های روزانه خود را تحت کنترل دارند. تجربه نشان داده است که ما خود کارگردانی59 را با اکراه میپذیریم. مثلاً کسی تمایل ندارد مسافر هواپیمایی باشد که خلبان انسانی واقعی نباشد.
8- کسانی که از هوش مصنوعی انتظار دارند منجی بشریت باشد انتظارات خارج از توان و زیاد از حدی دارند. بخشی از این انتظارات مربوط به طراحانی است که سعی دارند کارگزارها و روباتهایی تولید کنند که در اشکال ظاهری، واکنش ها، اظهارات و هوش بسیار نزدیک و شبیه به انسان باشند. در مقابل این گروه60، در مکتب دوم کسانی هستند که آینده هوش مصنوعی را کاملاً به سود بشریت میدانند. آنها به مشارکت سودمند با این کارگزاران اعتقاد دارند که بار کارهای خطرناک و ملال آور را از روی دوش ما بر می داشته، زندگی را آسان تر می کند و ما را در رسیدن به هدف نهایی زندگی خوب یاری میکند.
3. دنیای مجازی
دنیای مجازی محیطی است که از اطلاعات نادیدنی تشکیل شده است. این اطلاعات ممکن است اشکال مختلفی داشته باشد. به گفته میندی مک آدامز61، دنیای مجازی جهانی است تشکیل شده از اطلاعات خالص، اما نادیدنی که در آن اشیاء شکل سه بعدی دیدنی به خود میگیرند. این محیط در برگیرنده اشیا، از شبک ای جهانی از رایانه هایی تشکیل شده است که از طریق پروتکل های مورد توافق با یکدیگر کار میکنند. واژه cyberspace (دنیای مجازی) اولین بار توسط رمان نویسی به نام ویلیام گیبسون62 باهدف توصیف داد و ستد بین رایانههای شبکه و افرادی که از آن استفاده میکنند وضع شد. برای فهمیدن آثار و مشارکت دنیای مجازی در پژوهش درباره اخلاق رایانه ای، به نقش های دو بازیگر عمده نظر می کنیم: اینترنت و شبکه جهانی وب(WWW). از آنجا که در فصل مقدماتی با تفصیل زیاد از توسعه اینترنت و وب سخن گفتیم و از آن جا که فصل یازدهم نیز به طور گسترده به دنیای مجازی و اخلاق آن پرداخته است، بحث از لوازم اخلاقی و اجتماعی را همان جا ادامه می دهیم.
4. واقعیت مجازی
واقعیت مجازی(VR) مفهومیاست که در دهه 1960 متولد شد. این مفهوم اغلب در آثار دانشمندانی چون ایان سوثرلند63 و دی.ال. ویکرز64 آمده است. این مفهوم پدیده ای واقعی یا خیالی، شبیهسازی شده در محیط سه بعدی است. این محیط شبیهسازی شده که ما آن را از طریق حواس مان واقعی میپنداریم، از اشیاء مجازی تشکیل شده است که با برنامههای گرافیکیِ-انیمیشنی رایانهای با رابطه دو سویه سطح بالا تولید میشود و از یک برنامه نمایش گرافیکی، یک مبدل65 و یک مولد نگاره66 استفاده میکند. ابزارهای نمایش گرافیکی تمامیآثار محیط ایجاد شده را ارائه میدهند. نمایشها میتوانند صدا، تصویر یا نمایش لمسی باشند. ابزارها میتوانند در اندازههای مختلفی ظاهر شوند. از اندازه های بسیار کوچک که به صورت عینک مخصوص به چشم زده میشود گرفته تا اندازه های واقعاً بزرگ در فضای اتاق. رایجترین این ابزارها هدفونهایی هستند که به گوش زده میشوند و صداهای شبیهسازی شده را تولید میکنند. نمایشهای لمسی معمولاً ابزارهایی هستند که آثار لمس نوک انگشتان را منتقل میکنند درنتیجه کاربر میتواند شیء را در ذهن خود مجسم کند، اما تکنولوژی ابزارهای لمسی توسعه چندانی نیافته است. مبدل ها کانالی ارتباطی بین شخص در محیط و منابع محیط ایجاد میکنند. کار اصلی مبدل این است که از حرکت شیء ای ساکن در محیط، مثل حرکت چشمها، دستها، فعالیت مغز، سخن و احیاناً حرکت خون در رگ ها نقشه برداری و آن را به صورتی رایانهای تبدیل کند. طوری که سیستم رایانهای بتواند واکنش مناسبی نشان دهد. مولد نگاره، تصاویری را تولید می کند که بتوان آنها را در دستگاهی خاص نمایش داد. این مولد ها در واکنش به ورودیها از طریق مبدل، نگارههایی را در خروجیهای سیستم رایانه ای تولید میکنند. نگاره تولید شده ممکن است بصری باشد، مثل شبیهسازی کسی که در کهکشان سفر میکند. ممکن است در شکل های دیگری نیز ظاهر شود. مثل صدا که میتواند صداهایی شبیه آبشار یا رعد و برق باشد. اگر همه این اجزا با هم کار کنند، می توانند محیط رایانه ای دو سویه ای با گرافیک بالا تولید کنند.این محیطهای سه بعدی تولید شده با رایانه شامل سنسورهای دو سویهای است که برای موجودات ساکن در محیط تجربههای واقعی و نه توهم[محض] تولید میکنند، زیرا کاربران با این اشیاء67 و درون مایه ها68 رابطه دو سویه دارند و نه با تصاویر محض. البته آنها در این محیط ها وجود فیزیکی ندارند.
واقعیت مجازی به عنوان رشته ای علمی و بدون کاربرد آغاز شد، در ابتدا پیدا کردن موارد کاربرد و توسعه آن در زندگی واقعی دشوار بود. این امر موجب شد بعضی آن را «پاسخی در جست و جوی پرسش» بنامند. اما امروزه موارد کاربرد واقعیت مجازی در برخی حوزههای علمی و پزشکی رو به افزایش است. از جمله آنها تجسم بخشیدن69 به دادههای علمی و شبیهسازی است. تجسم بخشی واقعیت مجازی، پژوهشهای علمیچند بعدی با حجم بالا را طراحی می کنند و دادهها را در نمایش های سه بعدی شبیهسازی میکند. به علاوه رهیافت درستتر و واقع بینانه تری برای ارائه دادههای عددی اصیل مطرح می کند و به فهم بهتر پدیدههای انتزاعی تحت بررسی کمک می کند. اجازه دهید به چند پروژه واقعیت مجازی نگاهی بیندازیم. در زمینه تفریح و سرگرمیکه واقعیت مجازی بیشتر از هر چیز در آن شناخته شده است، دو پروژه جالب وجود دارد. مانند مؤسسه زندگی مصنوعی دو طرفه در محیط ویدیوئی(ALIVE)70 در مؤسسه تکنولوژی ماساچوست(MIT )71. پروژه ALIVE محیطی مجازی ایجاد میکند که میان فرد شرکتکننده و کارگزارهای خودمختار انیمشینیِ ساکن در دنیای مجازی رابطه بی سیم دو طرفه آزادی برقرار میکند. این سیستم از طریق تعامل با کارگزارها احساسات و واکنش های کاربر را فرا می گیرد و از آن برای ایجاد طرحی در حرکت بعدی بازی با کاربر استفاده میکند. علاوه بر سرگرمی، واقعیت مجازی بیشترین فایده را در تجسم بخشیهای علمیدارد که در آن ساختارهای پیچیده دادهها را به دانش رایانهای بر میگرداند. و به این ترتیب فهم و مطالعه روی آن دادهها را آسان میکند. در پزشکی، از واقعیت مجازی با موفقیت و مهارت استفاده می شود تا دادههای زیادی را از طریق ترکیب نمایش سه بعدی و چندین حرکت چرخشی با درجات متفاوتی از آزادی به شکل تصاویر سه بعدی در آورد. مثال روشن این کار پروژه مرکز توسعه اطلاعات پزشکی72 (CIEMED) از دانشگاه جانهاپکینز73 با همکاری مرکز توسعه اطلاعات پزشکی از دانشگاه سنگاپور74 است. این پروژه تصاویر پزشکی سه بعدی مغز و قلب را در طول عمل جراحی شبیهسازی میکند.
جدای از عالم پزشکی، از واقعیت مجازی، تجسم بخشی و شبیهسازی علمی، در چندین حوزه دیگر نیز استفاده می شود. از جمله در آموزش رانندگی و خلبانی. پروژه سیرکا(SIRCA )75 در لیسیت(LISITT )76 از دانشگاه والنسیا اسپانیا77 مثال روشنی از تلاش در حوزه کاربرد واقعیت مجازی است. پروژه سیرکا پیش برد شبیهسازی اشیاء کوچک و بزرگ در جهت رانندگی با هدف آموزش رانندگی است. با وجود این واقعیت مجازی از موارد کوچک آغاز شد و برای آن لطیفه هایی ساختند مانند این که می گفتند «علمی است که در جست وجوی کاربرد است.» در سال های اخیر به مرور که این علم در حوزههای گوناگون کاربرد پیدا کرد، مقبولیت زیادی به دست آورد. بعضی از این حوزهها عبارت اند از پزشکی، طراحی، هنر، تفریح و سرگرمی، تجسم بخشی، شبیهسازی وآموزش. به طور خلاصه می توان گفت این علم آینده روشنی در پیش دارد.
4-1. اخلاق در واقعیت مجازی
همان طور که پیشتر گفتیم، واقعیت مجازی جبهه78 جدیدی است. برای بسیاری افراد تصویری که با شنیدن کلمه frontier در ذهن ساخته می شود حسی خالص و مغشوش از ماجرا جویی آزادانه است. محیط واقعیت مجازی کاربر را به چنین دید رومانتیکی نزدیک تر میکند. اما به هر حال توهم است. واقعیت مجازی دو مسأله مهم اخلاقی و اجتماعی را مطرح می کند، یکی احساسات و واکنش های موجود ساکن در محیط، و دیگری نیت و قصد سازنده آن محیط. بعضی از عوامل و مسایل قابل بررسی عبارت اند از: 1- رابطه عاطفی و احساس تحت کنترل بودن: این مسأله مشکل روان شناسانه مهمی برای بسیاری از کاربران واقعیت مجازی تا زمانی که در محیط مجازی هستند و حتی گاهی پس از ترک آن به وجود می آورد. با وجود این کاربران با کارگزارهای داخل محیط مجازی وارد تعامل و داد و ستد میشوند و از حالات خوش عاطفی که در برخورد با این کارگزارها به آنان دست میدهد لذت میبرند و تمایل دارند رابطه عاطفی خود با این کارگزارها را توسعه بدهند. این رابطه ممکن است موجب شود که کاربران وابستگی عمیقی به کارگزارها پیدا کنند، تا حدی که احساس کنند تحت کنترل هستند، سپس در کاربران احساس مسئولیت و اعتماد به وجود می آورد. حتی ممکن است این رابطه شکل خصمانهای به خود بگیرد. به طوری که ضمن آن کاربر، چه زمانی که در محیط است و چه پس از ترک آن، احساس میکند از کنترل خارج و با کارگزارها دشمن شده است. در هر دو صورت، ممکن است که کاربر شخصیت یکی از کارگزارها را کسب و در محیط بیرون سعی کند با آن زندگی کند. پرسشی که از این وضعیت بی درنگ در ذهن مطرح میشود این است که چه کسی مسئول پیامدهای محیط مجازی است. 2- ایمنی و امنیت: علاوه بر شرایط ذهنی و روان شناسانه که شاید در وجود کاربر محیط مجازی ظهور پیدا کند، تا زمانی که کاربر در محیط است امنیتش در خطراست. از آن جا که هوش کارگزارها در محیط مجازی رو به افزایش است، ممکن است این کارگزارها احساس یا واقعیتی از صدمات جسمی و ذهنی را به کاربر وارد کنند. این آثار ممکن است تا زمانی که کاربر در محیط است معلول بیواسطه تماس های او باشد یا شاید هفتهها پس از آن که کاربر محیط را ترک گفت با تأخیر زمانی خود را نشان دهند. 3- ارتباط دو سویه میان کارگزار مجازی و انسان: ارتباط دو سویه میان کاربر و کارگزارها در محیط مجازی پیامدهای بسیاری دارد، از جمله ماهیت این ارتباط، فعالیت هایی که باید انجام شود و احساسات و واکنش های کاربر و کارگزارها. اگر کاربر این رابطه را دوستانه بداند ممکن است مشکلی به وجود نیاید. در غیر این صورت، مسأله احساس و تأثیر برتری این کارگزارهای مجازی مطرح می شود که یعنی ممکن است کاربر به دلیل هوش بالای کارگزارها احساس خطر کند. این وضعیت ممکن است کاربر را به دلیل از دست دادن کنترل یا احساس بی پناهی پریشان کند. 4- نیت و قصد تولید کنندگان محیط مجازی: پیش بینی این نیتها بسیار دشوار است. ممکن است در این راستا کاربر را در معرض بزرگ ترین خطر قرار دهد. انسان هرگز نمیتواند مطمئن باشد که این محیط ها همان کاری را که از آنها انتظار میرود انجام میدهند. ممکن است با سوء نیت از چنین محیط هایی استفاده شود، مثل جمعآوری اطلاعات درباره کاربر برای تولیدکننده یا کارگزارهای تولیدکننده، بی آن که خود فرد از آن اطلاعی داشته باشد. حتی ممکن است مرجعی به طور سری از این محیط استفاده کند تا در ذهن و روان کاربر تغییراتی را به وجود بیاورد. متأسفانه، برخلاف کارگزارهای مجازی هوش مصنوعی که بیشتر افراد نمی خواهند خود را به آن واگذار کنند، در واقعیت مجازی اراده ای وجود دارد برای این که با اولین درخواست بیچون و چرا کاملاً تسلیم آن شوند، زیرا مردم در پی لذت هستند. از آن جا که واقعیت مجازی دانش بسیار جدیدی است، هنوز مطالعات گسترده درباره رفتار کاربر در محیط مجازی انجام نشده است. این پژوهش ارزشمندی است. به مرور با پیشرفت مطلوب واقعیت مجازی این مطالعات انجام می شوند. اما پرسش این است که در صورت بروز مشکل چه باید کرد؟ میتوانیم با مسئولیت ناپذیری کاربر و مقاصد شیطانی تولیدکننده مبارزه کنیم، به این شکل که آییننامه ای اخلاقی را، همان طور که پیشتر در مورد[رمان] آسیموف گفتیم، در نرمافزار و سختافزار به کار ببندیم و محیط مجازی را بر اساس آن راه اندازی کنیم. ولی همان طور که پیش تر گفتیم، از هیچ راهی نمیتوانیم پیامدهای این کارگزارهای مجازی با چنین آییننامه ای کار گذاشته شدهای را پیش بینی کنیم. پرسش هم چنان باقی است. آیا محیط مجازی به آییننامه پای بند میماند یا آن را تغییر میدهد؟ و تا چه اندازه؟ هرگز نمی توان به این پرسش پاسخ داد. بنابراین، آموزش درباره مسئولیت استفاده از محیط مجازی به کاربر میتواند در این مورد کمک کند. این مسئولیت باید بر اصول اخلاقی و رفتاری صحیحی در رابطه با واقعیت مجازی استوار باشد. کولین بیردون79 سه اصل سنتی را که با واقعیت مجازی ارتباط کاملی دارد از فیلسوفان صاحب نام نقل میکند:
1- انسان نباید با رایانه کارهایی را انجام دهد که بدون80 رایانه مسئولیت آن کار را نمی پذیرد(Floyd.1985). 2- باز بودن پیوسته باب واقعیت مجازی برای همه، جنبههای تعیینکننده زندگی در توسعه اجتماعی، شناخت روابط بین افراد و داوری عاطفی را تحلیل میبرد(Aorn.1991). 3- از رایانهها باید در مواردی استفاده شود که کار با رایانه و استفاده درست از نماد81 روش های مناسبی برای پرداختن به واقعیت باشد(Floyd.1985).
بگذارید فریب را هم به این موارد اضافه کنیم. این همان اصل اخلاقی کانت است، زیرا هر کاربر میتواند خود را به جای دیگری جا بزند و دیگران را بفریبد. مثلاً سناریوی واقعیت مجازی زیر را در نظر بگیرید: شما با خوشحالی ازدواج کرده اید. در عین حال از مشکلات روابط نامشروع با خبر هستید و آنها را تایید نمیکنید. فهرستی از دلایل قانعکننده شما مسایل بهداشتی(بیماری های مقاربتی STDs،82 مثل ایدز، قبا83 و سفلیس)، پیامدهایی چون بچه های ناخواسته و نامشروع، محظورات اخلاقی در قبال خیانت و احترام به خود را شامل می شود . اما شما در مواجهه با واقعیت مجازی با فرد بسیار زیبایی با جاذبه جنسی زیاد همراه میشوید. ناگهان در می یابید که وارد روابط جنسی نامشروع شدهاید که البته در دنیای واقعی چنین نیست. محیط مجازی تمامی قید و بندهای شما درباره امور نامشروع را از میان برداشته است. در اینجا شما میتوانید اعمال خود را حتی با تمسک به نظریه اخلاقی سودگرایانه توجیه کنید. آیا این مسأله نوعی آشفتگی در نظریات اخلاقی سنتی است یا تعریف تازهای از این نظریات طبق واقعیات جدید مربوط به VRاست؟ این سناریو تعریف بیردون از واقعیت مجازی را منعکس می کند، یعنی «آشفتگی عمیق فلسفی».
فهرست منابع
1. Kanade, Takeo, Michael Reed, and Lee Weiss. “New Technologies and Applications in Robots.” Communications of the ACM 37(3), 1994, pp. 58–67. // 2. Maes, Pattie. “Agents that Reduce Work and Information Overload.” Communications of the ACM 37(7), 1994, pp. 30–40. // 3. ——. “Artificial Life Meets Entertainment: Lifelike Automous Agents.” Communications of the ACM 38(11), 1995, pp. 108–117. // 4. Edmonds, Ernest, Linda Candy, Recheal Jonas, and Bassel Soufi. “Support for Collaborative Design: Agents and Emergence.” Communications of the ACM 37(7), 1994, pp. 41–47. // 5. Etzioni, Oren, and Daniel Weld. “A Softbolt-Based Interface to the Internet.” Communications of the ACM 37(7), 1994, pp. 72–76. // 6. Mitchell, Tom, Rich Caruana, Dyne Feritag, John McDermott, and David Zabowski. “Experience with a Learning Personal Assistant.” Communications of the ACM 37(7), 1994, pp. 81–91. // 7. Selker, Ted. “A Teaching Agent That Learns.” Communications of the ACM 37(7), 1994, pp. 92–99. // 8. Riecken, Doug. “M: An Architecture of Integrated Agents.” Communications of the ACM 37(7), 1994, pp. 107–116. // 9. Turing, A.M. “Computing Machinery and Intelligence” Mind 59, 1950, pp. 433–460. // 10. Munakata, Joshironi. “Commercial and Industrial AI.” Communications of the ACM 37(3), 1994, pp. 23–25. // 11. Luger, George, and William Stubblefield. Artificial Intelligence (2nd ed.). Reading, MA: Benjamin Cummings, 1993. // 12. Asimov, Isaac. The Rest of the Robot. New York: Doubleday, 1964. // 13. Williamson, Jack. “With Folded Hands.” In The Best of Jack Williamson. New York: Ballantine, 1978, pp. 154–206. // 14. Waldrop, Mitchell. “A Question of Responsibility.” In R. Dejoie, George Fowler, and David Paradice (eds.), Ethical Issues in Information Systems., Boston, MA: Byrd & Fraser, 1991. // 15. Beardon, Collins. “The Ethics of Virtual Reality.” Intelligent Tutoring Media 3(1), 1992, pp. 22–28. // 16. Minsky, Marvin, and Doug Riecken. “A Conversation with Marvin Minsky About Agents.” Communications of the ACM 37(7), 1994, pp. 23–29. // 17. Carbonell, Jaime. Subjective Understanding: Computer Models of Belief Systems. Ann Arbor: University of Michigan Press, 1979. // 18. McAdams, Mindy. “Cyberspace: Two Flavors” http://www .well.com/user/mmcadams/. // 19. Gibson, William. Neuromancer. New York: Ace Books, 1984. // 20. Vickers, D.L. “Sorcerer’s Apprentice: Head-Mounted Display and Wand.” In J.A. Bist and H.L. Hast (eds.), A Symposium on Visually Coupled Systems: Development and Applications. AMD, TR 73–1, 1972. // 21. Singh, Gurrinder, Steven Feiner, and Daniel Thalmann. “Virtual Reality: Software and Technology,” Communications of the ACM 39(5), 1996, pp. 35–36. // 22. Bryson, Steve. “Virtual Reality in Scientific Visualization.” Communications of the ACM 39(5), 1996, pp. 62–71. // 23. Bayani, Salvador, Marcos Fernandez, and Mariano Pevez. “Virtual Reality for Driving Simulation.” Communications of the ACM 39(5), 1996, 72–76.
پی نوشتها:
1- Florence Yozefu. // 2- research university. // 3- wearable robitc gear.
4. Catchmenot (catch me not)(رهایم مکن).
5- artificial intelligence. // 6- cyberspace. // 7- virtual reality. // 8-first-order logic.
9. fuzzy logic: منطقی با تقلید از حداقل هوش انسانی و استفاده از عوامل متغیر مثل زمان و احتمال در قالب اعداد برای دادن پاسخهای غیر دقیق به سوالها. [م].
10- Alan Turing. // 11-Autonomous agents. // 12-Marvin Minsky. // 13-Alan key. // 14- Rodney Brooks. // 15- Autonomous Land Research Project. // 16- Advanced Research Project Agency. // 17- Unmanned Ground Vehicle. // 18-Prometheus Project.
19. Europe's Eureka Project (Eureka=یافتم، کلمه معروف ارشمیدس).
20-Pathfinder rover.
21. sojourner(مقیم).
22-remote-controlled Mars vehicle. // 23-AMBLER Project. // 24-a six-legged walker. // 25-Dante Project. // 26-MT. Erebus. // 27-Micro-electromechanical. // 28-JULIA. // 29-A text-based Multi-User simulation Environment. // 30-navigation. // 31-PHIL. // 32-knowledge navigator. // 33-John Scalley. // 34-Apple. // 35-SOFTBOT. // 36- expressive. // 37-backtrack.
38. Calendar APprentice (کار آموز تقویم). // 39. cognitive adoptive computer help(کمک رایانه شناختاری انتخابی).
40-George Lugar. // 41-William Stubblefield.
42 - این تلقی ریشه در فرهنگ مسیحی در داستان آفرینش دارد که آدم و حوا از درخت معرفت منع شدند. این تلقی منشأ واکنش های افراطی در دوره ی جدید در مسأله ی رابطه ی میان علم و دین شده است که در جای خود باید بررسی شود. از نظر اسلام، آن چه به فاجعه منجر میشود علم و کسب علم نیست، بلکه اخلاق شیطانی و تربیت نشدن انسان است.
43-Frankenstein monster syndrome of fear. // 44-Isaac Asimov. // 45-Jack Williamson. // 46-with folded hands. // 47-Asimovian Prime Directive. // 48-Weizerburm. // 49-Floyd. // 50-Marvin Minsky. // 51-Hans Moravic. // 52-Mitchell Waldrop. // 53-Carbonell. // 54- inaction. // 55-Jim Carbonell. // 56-Toshinori Munakata. // 57-fuzzy systems. // 58-Mary Shelly’s Frankenstein. // 59-automation. // 60-naysayer. // 61-Mindy McAdams. // 62-William Gibson. // 63-Ian Sutherland. // 64-D.L. Vickers. // 65-transducer. // 66-image generator. // 67-objects. // 68-contents. // 69-visualization. // 70- Artificial Life Interactive Institute Video Environment. // 71- Massachusetts Institute of Technology. // 72-Center for Information Enhanced Medicine. // 73-John Hopkins Universty. // 74-University of Singapore. // 75- Simulador Reativo de Conduccion de Automobiles. // 76 -Laboratorio Intagrado de Sistemas Intelligentes y Tecnologias de la Informacion en Trafico. // 77 -University of Valencia , Spain.
78. frontier (مرز، سرحد).
79-Collins Beardon. // 80-exposure. // 81-symbol manipulation. // 82- sexually transmitted disease. // 83-herpes.