ظهور ماشين‌هاي خودآگاه؛ فرصت يا تهديد؟

۳۰ بازديد

ظهور ماشين‌هاي خودآگاه؛ فرصت يا تهديد؟

زامبي‌ها و آدم‌هاي فضايي تهديدي واقعي براي گونه‌ي ما نيستند. در واقع فقط يكي از كاراكترهاي شرور فيلم‌هاي سينمايي است كه حضورش در دنياي واقعي ما را نگران مي‌كند: ربات‌ آگاه. مشخص نيست چه زماني پاي آن‌ها به زندگي ما بازخواهد شد. اما بياييد لحظه‌اي به آن‌ها فكر كنيم. دنيا با وجود آن‌ها به چه شكل خواهد بود؟ بگذاريد سؤالي اساسي‌تر مطرح كنم. جاي ما در چنين جهاني كجا خواهد بود؟ آيا اساسا جايي براي ما باقي خواهد ماند؟

اخيرا پژوهش‌هاي هوش مصنوعي انقلابي جديد را پشت سر گذارده‌اند. در حال حاضر سيستم‌هاي مبتني بر هوش مصنوعي در بازي‌هايي مانند شطرنج و گو، بهتر از انسان‌ها عمل مي‌كنند، مي‌توانند چهره‌ها را تشخيص دهند و رانندگي امني انجام دهند. بااين‌حال، بيشتر پژوهشگران مي‌گويند كه ماشين‌هاي آگاه، ماشين‌هايي كه فقط برنامه‌هاي نوشته‌شده را اجرا نمي‌كنند؛ بلكه احساس دارند و خودآگاه هستند، دهه‌ها با واقعيت يافتن فاصله دارند. آن‌ها كه چنين عقيده‌اي دارند، اين‌گونه استدلال مي‌كنند كه پژوهشگران بايد هوشي عمومي، ماشيني با همه‌ي توانايي‌هاي ذكرشده در بالا و قابليت يادگيري بسازند. در اينجا خواهد بود كه هوش مصنوعي به سطحي از پيچيدگي كه براي آگاهي نياز است، خواهد رسيد.

واضح است كه افرادي مخالف اين استدلال هستند. جاستين هارت، دانشمند رايانه در دانشگاه تگزاس، مي‌گويد:

مردم بر اين باورند كه خودآگاهي نقطه‌ي پايان پژوهش‌هاي هوش مصنوعي است و زماني رخ خواهد داد كه ديگر هيچ پروژه‌ي علمي ديگري باقي نمانده باشد.

او و ديگر پژوهشگران در حال ساخت ماشين‌هايي با ذهن‌هاي اوليه هستند. يكي از ربات‌هاي آن‌ها مانند بچه‌اي تازه متولدشده، تقلا مي‌كند تا بدنش را درك كند. يكي ديگر از ربات‌ها در مورد چيزهايي كه مي‌بيند، لغات نامفهوم به زبان مي‌آورد و اگر او را بزنيد گريه مي‌كند. يكي ديگر از اين ربات‌ها به‌گونه‌اي تنظيم شده است كه جهاني مختص خودش را كشف كند.

هيچ كس ادعا نمي‌كند كه ربات‌ها تجربه‌ي دروني غني‌ دارند. آن‌ها از طبقاتي كه جارو كرده‌اند احساس غرور نمي‌كنند يا جريان ۱۲۰ ولت به آن‌ها احساس لذت نمي‌دهد. اما اكنون ربات‌ها مي‌توانند برخي كيفيت‌هاي مشابه مغز انسان، مانند همدلي، انطباق‌پذيري و تفكر را از خود نشان دهند.

پژوهشگران اين مخلوقات سايبري را از اين جهت طراحي مي‌كنند كه نقص‌هاي سيستم‌هاي مبتني بر يادگيري ماشين را تصحيح كنند. اين سيستم‌ها قدرتمند اما مبهم هستند. مبناي كار آن‌ها، ارتباط دادن ورودي به خروجي است؛ درست مانند آزمون‌هايي كه در آن گزينه‌هاي موجود در ستون آ را به گزينه‌هاي مناسب آن‌ها در ستون ب متصل مي‌كنيد. اساسا سيستم‌هاي هوش مصنوعي اين ارتباط‌ها را در حافظه‌ي خود ذخيره مي‌كنند. هيچ منطق عميق‌تري در پس پاسخ‌هاي آن‌ها وجود ندارد و مشكل دقيقا همين‌جا است.

از سوي ديگر، خواندن ذهن انسان‌ها و پيش‌بيني آن‌ها دشوار است. ما زمان قابل توجهي را صرف تحليل خودمان و ديگران مي‌كنيم؛ امري كه نقش اصلي ذهن خودآگاه ما محسوب مي‌شود. اگر ماشين‌ها ذهن داشته باشند، نفوذناپذير نخواهند بود. ما مي‌توانيم به‌سادگي از آن‌ها دليل انجام كارهايشان را بپرسيم.

سلمر برينگجرد، پژوهشگر هوش مصنوعي در انستيتوي پلي‌تكنيك رنسلير در تروي-نيويورك، مي‌گويد:

اگر مي‌توانستيم به بخشي از ساختار خودآگاهي دست پيدا كنيم، ظرفيت‌هاي بسيار خوبي توليد مي‌شد.

داستان‌هاي علمي تخيلي ما را از ربات‌هايي كه مي‌توانند حس كنند، ترسانده‌اند. اما شايد اين ربات‌هاي بدون ذهن هستند كه بايد از آن‌ها هراسان باشيم؛ شايد ربات‌هاي خودآگاه متحدان ما باشند.

Ai

نمايشگاه جهاني رباتيك، مادريد ۲۰۱۶. كودكان در حال برقراري ارتباط با پپر (ربات انسان‌نما) هستند كه توسط آلداباران رباتيك (شركت رباتيك فرانسوي) توسعه داده شده است.

ربات‌ها در جستجوي خودشناسي

امروزه، خودرو‌هاي خودران به پيشرفته‌ترين سيستم‌هاي هوش مصنوعي مجهز هستند. آن‌ها با توجه به ديتاي رادار و ليزر و وارد كردن آن‌ها در الگوريتم‌ها، تصميم مي‌گيرند چه هنگام ترمز كنند و چه هنگام جهت حركت خود را عوض كنند. اما رانندگي بيشتر به تشخيص حركات ديگر راننده‌ها و واكنش دفاعي به آن‌ها مربوط است؛ عملكردهايي كه به آگاهي ربط دارند.

پل ورشور، عصب‌شناس دانشگاه بارسلونا، مي‌گويد:

خودرو‌هاي خودران بايد ذهن ديگر خودروهاي خودران را بخوانند تا بفهمند آن‌ها چه مي‌خواهند كنند.

هاد ليپسون، استاد دانشگاه كلمبيا و يونگ جونگ كيم، در دانشگاه سجونگ سئول، رباتي ساخته‌اند كه يك راننده‌ي بي‌ملاحظه است. اين ربات دايره‌اي كوچك، در مسيري دايره‌اي با منطق خودش حركت مي‌كند. ربات دوم به‌گونه‌اي تنظيم مي‌شود كه بتواند مسير حركت ربات اول را بدون توجه به نقطه‌ي شروع آن رهگيري كند؛ بنابراين ربات دوم نمي‌تواند يك مسير ثابت را ثبت كند. ربات دوم بايد منطق حركتي ربات اول را بفهمد. ليپسون و كيم با استفاده از روندي مشابه تكامل دارويني، يك استراتژي رهگيري ايجاد كردند. ليپسون مي‌گويد:

اين استراتژي بدلي از يك ذهن كنشگر بود. گرچه كامل نيست؛ اما آن‌قدر خوب هست كه بتواند حركت‌هاي بعدي ربات اول را پيش‌بيني كند.

تيم ليپسون يك ربات ديگر هم ساخته است كه مي‌تواند به دركي از بدن خود برسد. اين ماشين عنكبوتي چهارپا ابعاد يك تارانتولا را دارد. وقتي اين ربات روشن مي‌شود، كامپيوتر دروني او هيچ اطلاعاتي در مورد بدنش ندارد. ليپسون مي‌گويد:

اين ماشين نمي‌داند كه موتورهايش چه ترتيبي دارند يا بدنش به چه شكل است.

اما اين ربات مي‌تواند ياد بگيرد. اين ربات هر قسمت از بدنه‌اش را كه بتواند حركت مي‌دهد تا ببيند چه اتفاقي مي‌افتد. براي مثال، ياد مي‌گيرد كه چگونه روشن كردن يك موتور، مفصل يك پا را خم مي‌كند. ليپسون مي‌گويد اين ربات موتورهايش را به‌صورت تصادفي روشن مي‌كند.

چهار روز خسته‌كننده مي‌گذرد و سرانجام ربات مي‌فهمد كه چهار پا دارد و سپس كشف مي‌كند كه چگونه آن‌ها را مكان‌يابي كند و حركت دهد تا از يك طرف اتاق به سمت ديگر برود. ليپسون يكي از موتورها را جدا مي‌كند. ربات متوجه مي‌شود كه اكنون فقط سه پا دارد و كنش‌هاي او منجر به نتيجه‌ي مورد انتظارش نمي‌شود. ليپسون مي‌گويد:

به نحوي اين ربات در مراحل بسيار ابتدايي خودآگاهي قرار دارد.

شايد اين ربات‌هاي بدون ذهن هستند كه بايد از آن‌ها هراسان باشيم؛ شايد ربات‌هاي خودآگاه متحدان ما باشند

ديگر قابليت انسان‌مانندي كه پژوهشگران مايل هستند در هوش مصنوعي قرار دهند، ابتكار است. ماشين‌ها در بازي گو استاد هستند؛ زيرا انسان‌ها آن‌ها را براي حل معماها هدايت كرده‌اند. تعريف كردن صورت مسئله، سخت‌ترين قسمت حل آن است و ربات‌ها از انجام اين كار ناتوان هستند.

ريوتا كاناي، عصب‌شناس و بنيان‌گذار استارت‌آپ آرايا در توكيو، در مقاله‌اي در ژورنال Trends in Cognitive Science، ايجاد انگيزه‌هاي ذاتي در ربات‌ها را بررسي كرده است. او و همكارانش، راننده‌هايي را شبيه‌سازي كردند كه در محيطي مجازي رانندگي مي‌كنند. خودروي آن‌ها به تپه‌اي با شيب زياد مي‌رسد كه بالا رفتن از آن تنها در صورتي ممكن است كه خودرو هل داده شود. تا زماني كه به راننده‌ها فرمان داده نشود كه راهي براي بالا رفتن از تپه پيدا كنند، آن‌ها ساكن در جاي خود باقي مي‌مانند.

تيم كاناي اين راننده‌ها را با عامل كنجكاوي برنامه‌ريزي مي‌كنند. آن‌ها محيط را بررسي كردند، تپه را به‌عنوان يك مشكل تشخيص دادند و فهميدند كه حتي بدون دريافت دستورالعمل، چگونه از آن بالا بروند. كاناي مي‌گويد:

ما به راننده‌ها هدف نداديم. آن‌ها محيط اطراف خود را بررسي مي‌كنند و با پيش‌بيني نتايج كنش خودشان، موقعيت را ارزيابي مي‌كنند.

در واقع به ربات‌ها به‌اندازه‌اي انگيزه ذاتي داده شد كه مسائل را بهتر حل كنند؛ نه آن‌قدر كه تصميم بگيرند از آزمايش خارج شوند. ماشين‌ها مي‌توانند به‌اندازه‌ي انسان‌ها لجوج باشند. جاشوا باخ، پژوهشگر هوش مصنوعي هاروارد، ربات‌هاي مجازي را در محيطي مجازي پر از قارچ‌هاي خوشمزه اما سمي قرار داد. او انتظار داشت آن‌ها ياد بگيرند كه از آن قارچ‌ها دوري كنند؛ اما ربات‌ها مدام در حال خوردن آن قارچ‌هاي سمي بودند. باخ مي‌گويد:

همان‌طور كه انسان‌ها تجربه‌هايشان را دست كم مي‌گيرند، ربات‌ها هم همين‌گونه بودند؛ آن‌ها اصلا توجه نمي‌كردند. قارچ‌ها خيلي خوشمزه بودند و ربات‌ها فقط به همين توجه مي‌كردند.

باخ مجبور شد حس نفرت از قارچ‌ها را به ربات‌ها القا كند. به عبارت ديگر، ربات‌ها بايد ارزش‌ها را ياد بگيرند و نه‌فقط هدف‌ها را.

توجه كردن

علاوه بر خودآگاهي و خودانگيزشي، ديگر عملكرد كليدي آگاهي، توانايي تمركز است. اخيرا «توجه انتخابي» به زمينه‌اي مهم در پژوهش‌هاي هوش مصنوعي تبديل شده است. گوگل ديپ‌مايند كه كامپيوتر بازيكن گو را توسعه داده است، تنها شركتي نيست كه به اين مهم مي‌پردازد.

ai

استنلي فرانكلين، استاد علوم كامپيوتر در دانشگاه ممفيس، مي‌گويد:

آگاهي از فيلترهاي توجه است.

فرانكلين و همكارانش سال گذشته مقاله‌اي در Biology Inspired Cognitive Architectures منتشر كردند. آن‌ها در اين مقاله، پروسه ساخت سيستم هوش مصنوعي‌اي به نام ليدا را بررسي كردند. ليدا مي‌تواند تصميم بگيرد كه در طول يك پروسه‌ي رقابت بر چه چيزهايي تمركز كند. عصب‌شناسي به نام برنارد بارز در دهه‌ي ۸۰ ميلادي، چنين پروسه ساختي را پيشنهاد كرده بود. اين فرايند محرك‌هاي جالبي مانند بلندي صدا، روشنايي يا موارد خارجي را شناسايي مي‌كند و سپس براي برنده شدن مبارزه مي‌كند. وقتي اين فرايند غالب مي‌شود، مشخص مي‌كند چه زماني قدرت ذهني ضعف دارد و طيف وسيعي از عملكردهاي مغز، شامل مشورت و حركت را آگاه مي‌كند. چرخه‌ي ادراك، توجه و اقدام پنج تا ده بار در ثانيه تكرار مي‌شود.

نخستين نسخه‌ي ليدا، يك سرور شغل‌ياب براي نيروي دريايي آمريكا بود. او ايميل‌ها را مي‌خواند، بر اطلاعات مربوطه تمركز مي‌كرد و درعين‌حال علاقه‌مندي‌هاي هر جوياي كار، فراهم بودن فرصت شغلي و الزامات بوروكراسي دولتي را هم در نظر مي‌گرفت.

از آن زمان تاكنون، تيم فرانكلين از اين سيستم براي مدل‌سازي ذهن حيوانات، به‌ويژه تغييرات رفتاري ناشي از تمركز فقط بر يك چيز، استفاده كرده است. به‌عنوان مثال، ليدا درست مانند انسان‌ها پديده‌اي روان‌شناختي به اسم «غفلت عمدي» را نشان مي‌دهد. وقتي چيزي توجه شما را جلب مي‌كند، شما براي نيمي از ثانيه، نسبت به هر چيز ديگري بي‌توجه مي‌شويد. اين نقطه كور شناختي، به عوامل متعددي بستگي دارد و ليدا به همان عوامل، واكنشي انساني نشان مي‌دهد.

پنتي‌ هايكونن، پژوهشگر فنلاندي هوش مصنوعي، با اصول مشابه رباتي به نام XCR-1 ساخته است.‌هايكونن، برخلاف ديگر پژوهشگران كه در مورد ساخته‌هاي خود ادعاهاي ساده‌اي مانند دستيابي به درجاتي از آگاهي دارند، ادعا مي‌كند كه ساخته‌ي او تجربه واقعي ذهني و احساسات اصلي را دارد.

هايكونن ارتعاش را به‌عنوان درد براي ربات تعريف مي‌كند. اين حس، تمامي ورودي‌هاي حسي ديگر را متوقف و تمام توجه ربات را به خود جلب مي‌كند. 

سيستم ياد مي‌گيرد ارتباطاتي مانند نورون‌ها در مغز ما ايجاد كند. اگر ‌هايكونن به ربات يك توپ «سبز» نشان دهد و كلمه‌ي «سبز» را بگويد، ماژول شنوايي و بينايي پاسخ مي‌دهند و ارتباط برقرار مي‌كنند. اگر ‌هايكونن فقط كلمه‌ي «سبز» را بگويد، ماژول شنوايي پاسخ خواهد داد و بر اساس ارتباطي كه قبلا ايجاد شد، ماژول بينايي هم پاسخ خواهد داد. ربات تا زماني كه كلمه را بشنود يا رنگ را ببيند، به اين روند ادامه خواهد داد، حتي اگر به دوري باطل بيانجامد.

عكس اين حالت هم صادق است؛ اگر ربات رنگ «سبز» را ببيند، حتي اگر نام «سبز» گفته نشود، ماژول شنوايي پاسخ خواهد داد. اگر بخواهم خلاصه‌تر بگويم، در واقع ربات گونه‌اي سينستزيا در خود توسعه داده است. سينستزيا به اين معني است كه وقتي يكي از حواس شما فعال مي‌شود، يك حس نامربوط ديگر هم‌زمان و متأثر از آن فعال مي‌شود.

هايكونن مي‌گويد:

اگر ما يك توپ را ببينيم، ممكن است ديدن توپ را به خود بگوييم. در آن زمان ادراك ما به‌گونه‌اي است كه انگار واقعا آن كلمه را شنيده‌ايم. اين اتفاقي است كه براي XCR-1 مي‌افتد.

حال در نظر بگيريد كه ماژول‌ها با نوعي تناقض روبرو شوند. شرايط جالبي پيش خواهد آمد. براي مثال، ماژول بينايي رنگ «سبز» را مي‌بيند؛ اما آنچه ماژول شنوايي مي‌شنود، كلمه «آبي» است. اگر ماژول شنوايي غالب باشد، سيستم به‌عنوان يك كليت، تمام توجه خود را به آنچه مي‌شنود، متمركز مي‌كند و رنگي را كه مي‌بيند، ناديده مي‌انگارد. ربات جرياني بسيار ساده از خودآگاهي دارد كه از ادراكي ايجاد شده است كه لحظه‌به‌لحظه بر آن مستولي مي‌شود: سبز، توپ، آبي و ... وقتي ‌هايكونن ماژول شنوايي را به يك موتور گفتاري متصل مي‌كند، ربات در مورد هرچه مي‌بيند و احساس مي‌كند، مونولوگي بدون توقف ايراد مي‌كند.

هايكونن ارتعاش را به‌عنوان درد براي ربات تعريف مي‌كند. اين حس، تمامي ورودي‌هاي حسي ديگر را متوقف كرده و تمام توجه ربات را به خود جلب مي‌كند. يك بار ‌هايكونن به ربات ضربه زد؛ ربات گفت: «من صدمه ديد.»

هايكونن مي‌گويد:

برخي از مردم به دلايلي با ديدن چنين موردي، احساس ناراحتي مي‌كنند.

او و برخي ديگر از پژوهشگران به آفريده‌هاي خود حسي ندارند. مثلا ورشور بيان مي‌گويد: «من هرگز چنين آدمي نيستم كه رباتي را ببينم و بگويم آخي! ربات بيچاره!»

گونه‌اي جديد

پژوهشگران بر اساس تلاش‌هاي اوليه‌ي خود، ربات‌هايي شبيه‌تر به موجودات زنده مي‌سازند. در طبيعت سيستم‌هاي هوشيار بي‌شماري از جانداران تك‌سلولي و سگ گرفته تا شامپانزه و انسان وجود دارد. پيشرفت تدريجي اين فناوري خوب است؛ زيرا به ما زمان مي‌دهد تا به اين ايده كه روزي، ديگر تنها موجودات پيشرفته روي كره‌ي زمين نخواهيم بود، خو بگيريم.

ai

براي مدت‌زماني طولاني، همراهان مصنوعي ما آسيب‌پذير خواهند بود. در واقع آن‌ها بيشتر شبيه حيوانات دست‌آموز ما هستند تا اينكه تهديدي براي ما باشند. نحوه‌ي رفتار ما با آن‌ها به اين امر وابسته خواهد بود كه آيا آن‌ها را موجوداتي آگاه مي‌دانيم كه مي‌توانند رنج بكشند يا خير.

سوزان اشنايدر، فيلسوفي در دانشگاه كانتيكت است كه پيامدهاي هوش مصنوعي را بررسي مي‌كند. او مي‌گويد:

ما به حيوانات خيلي بها مي‌دهيم، گاهي به همان اندازه كه به انسان‌ها بها مي‌دهيم؛ زيرا بر اساس آگاهي خود مي‌دانيم كه حيوانات هم آگاهي دارند.

در واقع او معتقد است كه ما عمدا از ساخت ماشين‌هاي آگاه خودداري مي‌كنيم تا از معضلات اخلاقي كه پيش مي‌آورد، جلوگيري كنيم.

اشنايدر مي‌گويد:

اگر ما ماشين‌هايي آگاه بسازيم و سپس آن‌ها را مجبور كنيم براي ما كار كنند؛ اين كار چيزي جز برده‌داري نيست. به همين ترتيب، اگر به ربات‌هاي پيشرفته، ادراك ندهيم، تهديد احتمالي آن‌ها براي بشريت بدتر خواهد شد؛ چرا كه آن‌ها هيچ دليل خاصي نمي‌يابند تا ما را شناسايي كنند و براي ما ارزش قائل شوند.

اين ماشين‌ها، قابليت حل مسئله‌ي ما را به بسيار گسترش خواهند داد؛ اما هر چيزي يك مسئله‌ي حل كردني نيست. تنها واكنشي كه ربات‌ها مي‌توانند به تجربه‌ي آگاهانه داشته باشند، لذت بردن از آن است. آن‌ها با محدوده گسترده‌تري از ادراك حسي، چيزهايي را خواهند ديد كه مردم باور نمي‌كنند. ليپسون مي‌گويد:

من فكر نمي‌كنم گونه‌هاي رباتي آينده، بي‌روح و سرد باشند؛ آن‌ها احتمالا موسيقي و شعر خواهند داشت كه ما هرگز درك نخواهيم كرد.

تا كنون نظري ثبت نشده است
ارسال نظر آزاد است، اما اگر قبلا در مونوبلاگ ثبت نام کرده اید می توانید ابتدا وارد شوید.