موضوع “هوش مصنوعی” از دیرباز با چالشها و موضوعات مختلفی گلاویز بوده و حتی بحث و جدلهای زیادی را به خود اختصاص داده است. نظرهای مختلفی که در رابطه با بایدها و نبایدهای استفاده از این تکنولوژی و هدف گذاری و آینده نگری آن به وجود آمده، همچنان نیز ادامه دارد. تقریبا 70 سال پیش، آلن تورینگ اولین نظرات مرتبط با هوش مصنوعی را بیان کرد و امروز موضوع اخلاق انسانی در هوش مصنوعی به میان آمده! آیا باید این کار را انجام داد یا خیر؟
- اختراعات کامپیوترهای هوش مصنوعی ثبت نخواهد شد – تبعیض یا ظلم؟
- تراشه هوش مصنوعی Cerebras با قدرت محاسبه مغز انسان ساخته شد
اعطای اخلاق انسانی در هوش مصنوعی – خوبیها و بدیها
شما به عنوان یک انسان اخلاق انسانی را چگونه یاد گرفتید؟ خب مشخص است با تکامل و گذر زمان! اگر شما بخواهید به یک هوش کامپیوتری اخلاق انسانی را تزریق کنید، باید باز هم این کار را با آزمون و خطا و صرف زمان انجام دهید. این دقیقا نظر محققانی از موسسه فناوری اطلاعات هند است که با ارائهی مقالهای جدید، بحث و گفتگو در این زمینه را دوباره بالا بردند.
عنوان این مقاله “هوش مصنوعی و حس درونی” است که در آن علاوه بر عنوان کردن موضوع مورد بحث، روشهای انجام آن را هم بیان کرده است. در ابتدای این مقاله به موضوع جالبی با نام “درگیری درونی” اشاره شده که باعث ایجاد احساسهای مختلف در ما میشود و گاهی اوقات با ایجاد یک حس همدردی از ایجاد یک فاجعهی بزرگ جلوگیری میکند. به همین دلیل است که محققان پیشنهاد میکنند تا با آموزش هوش مصنوعی، آن را از نظر اخلاقی با انسانها همسو کنیم و پس از آن نیز باید آموزشی صورت گیرد تا او بتواند بفهمد که چه زمانی خود را در اولویت قرار دهد و چه زمانی جامعه را!
محققان در این مقاله یادآور شدهاند که این موضوع خوبیها و بدیهای خاص خود را دارد! این که ما به احساس خود متکی باشیم، ممکن است از دیدگاه منطقی خود دور شویم و همهی ما میدانیم که در بسیاری از مواقع این موضوع به ما لطمه خواهد زد. اما از سوی دیگر ممکن است کلید تعالی بشریت، احساس مسئولیت و اخلاق ذاتی آن باشد. آشناست نه؟ این دقیقا همان درگیری درونی ما انسانهاست که بین دو استراتژی مختلف ماندهایم. احساس ما به خودمان محدود نیست و بسیاری از اوقات ما این انرژی را به اشیاء و افراد مختلف منتقل میکنیم. این همان هویت اجتماعی ماست که حس تعلق و وفاداری را نسبت به یک چیز فراتر از وجود فیزیکی ایجاد میکند.
محققان برای برطرف کردن این موضوع چیزی میان نوع دوستی و رفتار خودخواهانه را ملاک قرار دادهاند تا در صورت نیاز بتواند تفاوتهای ظریف اخلاقی را به وجود آورد. از آنجایی که هیچ محاسباتی برای اخلاق وجود ندارد، اینکه یک مدل هوش مصنوعی دقیقا دارای چه معیارهای اخلافی و یا درگیری درونی باشد تبدیل به یک سوال فلسفی میشود تا علمی! محققان اعتقاد دارند که هنوز سوالات بسیار زیادی وجود دارند که پیش از هر چیز باید به جواب آنها برسیم و بعد دست به کار شویم. اینکه آیا راهبردی برای تعیین سطح بهینهی همدلی و اجتماعی وجود دارد که بتواند باعث تکامل هوش مصنوعی مورد نظر شود یا خیر؟
آیا ما واقعا هوش مصنوعیای را میخواهیم که اخلاقی شبیه به اخلاق انسان داشته باشد؟ این نکته را در نظر داشته باشید که دیدگاههای اخلاقی و اجتماعی ما در زیر سایهی جنگهای بیشمار و سنتهای غلط شکل گرفتهاند و ما برای قدم گذاشتن در راه درست جامعهی بشری، آزمونهای زیادی را پشت سر گذاشتهایم. پس به نظر میرسد که هنوز ما برای تصمیم گرفتن دربارهی این موضوع کار زیادی در پیش داریم. اگر در فرآیند آموزش اخلاق به یک هوش مصنوعی کوچکترین اشتباهی صورت گیرد، میتواند نتایج فاجعه باری به همراه داشته باشد.
از طرف دیگر شاید با انجام این موضوع بتوانیم به درک فلسفی بیشتری از اخلاق انسانی و توانایی شبیه سازی تمدن برسیم. شاید ماشینها بهتر از آنچه که انسان در طول تاریخ به آن دست پیدا کرده است، با عدم قطعیت کنار بیایند. برای مطالعهی بیشتر این تحقیق میتوانید روی اینجا کلیک کنید!
…ما به احساس خود متکی باشیم، ممکن است از دیدگاه منطقی خود دور شویم: فرض تقابل احساس و منطق که در باور عام رواج دارد اشتباه است
البته مقاله بر یک سری فرض اشتباه بنا شده:
هیچ محاسباتی برای اخلاق وجود ندارد
سوال فلسفی میشود تا علمی
هر چند بنظر من تزریق اخلاق در فلسفه که شاهکار سقراط بوده در زمان خودش و تا همین اخیر هم بسیار بجا و درست بوده، ولی الان پاسخ در شاخه های علوم انسانی مثل روان شناسی مشخص و واضحه…