زندگی مستعد تکرار اشتباهات بزرگ گذشته
تاریخ انتشار: ۲۸ مرداد ۱۴۰۲ | کد خبر: ۳۸۴۹۷۰۲۵
استاد اندیشه جهانی و فلسفههای تطبیقی در دانشگاه لندن معتقد است تک تک جنبههای زندگی معاصر در جوامع با تکنولوژی بالا تحت تأثیر فناوری هوش مصنوعی قرار گرفته است.
بر اساس کتاب جدید آرشین ادیب مقدم، استاد اندیشه جهانی و فلسفههای تطبیقی در دانشگاه لندن، نژادپرستی و تبعیض جنسی مدرن باید غلبه شود تا جامعه پساانسانی پایداری بسازیم که در آن بتوانیم در کنار دوستان سایبورگ خود در صلح باشیم.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
«آیا هوش مصنوعی نژادپرستانه است؟، اخلاق هوش مصنوعی و آینده بشریت» موضوع فراگیر نژادپرستی را در الگوریتمهایی که زندگی روزمره ما را شکل میدهد روشن میکند و خواستار آیندهای فراگیرتر و مسئولانهتر است.
به گزارش خبرگزاری تحلیل بازار؛ پروفسور آرشین ادیب مقدم با تحقیق و تحلیل خود، نقش غولهای فناوری و شخصیتهای تأثیرگذار مانند ایلان ماسک، مارک زاکربرگ و بیل گیتس را تشریح میکند تا نشان دهد که چگونه ایدهها و اقدامات آنها در گسترش اشکال مختلف افراطگرایی کمک میکند.
بسیاری از مردم متوجه نیستند که هر جنبه حیاتی از زندگی ما قبلاً توسط نوعی هوش مصنوعی کنترل میشود - بانکداری، مراقبتهای بهداشتی، خرید، ایمیل ها، رسانههای اجتماعی و ... - و برخی از الگوریتمها به وضوح تبعیض آمیز هستند. خطر این است که ما با چشم بسته از اشتباهات گذشته وارد این عصر جدید وجود انسان میشویم.
این کتاب بر تأثیر قابل توجه غولهای فناوری تأکید میکند. نویسنده با گشودن شبکه پیچیده ارتباطات بین نژادپرستی عصر روشنگری و شیوههای تبعیض آمیز که در الگوریتمهای امروزی جاسازی شده است، آشکار میکند که چگونه فناوری به طور ناخواسته سلسله مراتب اجتماعی و مرزهای تبعیض آمیز را تثبیت میکند.
تجزیه و تحلیل کتاب از دادههایی که به فناوری هوش مصنوعی میخورند، دیدگاهی انتقادی در مورد پیامدهای بالقوه برای امنیت بین المللی و حقوق بشر ارائه میدهد. ادیب مقدم با برجسته کردن پیامدهای هشداردهنده توسعه کنترل نشده هوش مصنوعی، جامعه را ترغیب میکند تا در مورد نیاز فوری به دستورالعملهای اخلاقی و حکمرانی مسئولانه در این زمینه فکر کند. تجزیه و تحلیل و بینش او خوانندگان را وادار میکند تا در مورد خطرات بالقوه پیشرفت فن آوری کنترل نشده فکر کنند.
در ادامه گفتگوی بازار با پروفسور «آرشین ادیب مقدم»، رئیس مرکز مطالعات ایران در مدرسه مطالعات شرقی و آفریقایی دانشگاه لندن در مورد این کتاب آمده است.
«آرشین ادیب مقدم»، استاد کامل «سیاست در غرب آسیا» در دانشگده مطالعات شرقی و آفریقایی در دانشگاه لندن است. کتاب «روانشناسی ناسیونالیسم، تفکرات جهانی، تصورات ایرانی» که از سوی انتشارات «دانشگاه کمبریج» منتشر شده از جمله آثار وی است.
*در کتاب «آیا هوش مصنوعی نژادپرستانه است؟، اخلاق هوش مصنوعی و آینده بشریت» به موضوع تبعیض نژادی و جسنی در هوش مصنوعی پرداخته اید. اهمیت این موضوعات در عصر دیجیتال چیست؟
این کتاب نشان میدهد که چگونه فناوری هوش مصنوعی تبعیض جنسی و نژادپرستی را در جامعه ترکیب میکند، اگر هوش مصنوعی کنترل نشده و تنظیم نشده باقی بماند.
این کتاب ریشههای تاریخی دادههای آلوده ما را، بهویژه در جوامع اروپایی و آمریکای شمالی، ردیابی میکند و برخی از مشکلات را با اشاره به نهادهای جهانی و فعالیتهای جامعه مدنی به راهحلهایی برای آینده مرتبط میکند.
*کتاب شما به نوعی موضوع اخلاق در فناوری و نگرانی در مورد چگونگی توجه به اخلاق در هوش مصنوعی را مطرح میکند. به نظر شما، هوش مصنوعی در چه زمینههایی ممکن است اخلاق را نادیده بگیرد؟ شما معتقدید که بسیاری از جنبههای زندگی انسان در گذشته توسط هوش مصنوعی کنترل میشد. به نظر میرسد نگران این هستید که انسانها وارد دنیایی شوند که در آن هوش مصنوعی کنترل بیشتری بر زندگی انسانها دارد. به نظر شما افزایش آگاهی در این زمینه وظیفه کیست؟
تک تک جنبههای زندگی معاصر در جوامع با تکنولوژی بالا تحت تأثیر فناوری هوش مصنوعی قرار گرفته و به طور فزایندهای تعیین میشود. این شامل مراقبتهای بهداشتی، بانکداری روزمره، آموزش و ... است. این کتاب نشان میدهد که الگوریتمهای حاکم بر آن حوزههای زندگی ما مستعد اشتباهات گذشته هستند - تاریخ دردناک تبعیض و سرکوب سیستماتیک اقلیتها متأسفانه بخشی از آن است. بنابراین، کتاب با مجموعهای از توصیهها برای زندگی روزمره به پایان میرسد، کارهایی که میتوانیم برای محافظت از حریم خصوصی خود انجام دهیم.
هوش مصنوعی تنها پیشرفت در تاریخ جهانی ما است که ممکن است نظارت و کنترل انسانی را از بین ببرد
همچنین بخشهای مختلفی در مورد گزینههای حکمرانی، در سطح محلی، ملی و بینالمللی وجود دارد که ممکن است به شروع گفتوگوی جهانی درباره تدوین یک اجماع در مورد ضوابط رفتار برای برنامههای کاربردی مبتنی بر هوش مصنوعی کمک کند. در پایان، این ما شهروندان هستیم که نیاز به افزایش آگاهی و مشارکت دولتهای خود داریم تا اطمینان حاصل کنیم که فناوری مبتنی بر هوش مصنوعی امنیت انسانی ما را تهدید نمیکند، بلکه آن را تقویت میکند. این امکان پذیر است و کتاب نشان میدهد که چرا انجام آن ضروری و ممکن است.
فناوری مبتنی بر هوش مصنوعی قبلاً نشان داده است که این پتانسیل را دارد که نظم سیاسی را مختل کند
*عواقب توسعه کنترل نشده هوش مصنوعی بر امنیت بین المللی و حقوق بشر چیست؟
فناوری مبتنی بر هوش مصنوعی قبلاً نشان داده است که این پتانسیل را دارد که نظم سیاسی را مختل کند. انتخاب دولتهای دست راستی، از جمله دونالد ترامپ، برگزیت و سایر تحولات عمده توسط برخی از این الگوریتمها انجام شد. علاوه بر این، با توجه به ماهیت خود-بهبود فناوری که با هر چیزی که قبلاً با آن مواجه شدهایم قابل مقایسه نیست، فناوری هوش مصنوعی میتواند به یک تهدید وجودی برای بشریت، یعنی برای گونه ما به عنوان یک کل تبدیل شود، زیرا هوش مصنوعی تنها پیشرفت در تاریخ جهانی ما است که ممکن است نظارت و کنترل انسانی را از بین ببرد.
مجدداً تأکید میکنم که اکنون زمان جلوگیری از این امر و تنظیم دستور کار است که سوء استفاده شرورانه از هوش مصنوعی را به عنوان وسیلهای برای حمل اشکال مختلف افراط گرایی و سیستمهای سرکوبی مستقر به حداقل برساند.
استدلال نمیکنم که ماسک، زاکربرگ و گیتس شخصاً مسئول هستند و من اصلاً به این دیدگاه خنده دار و در عین حال رایج در رسانههای اجتماعی مبنی بر اینکه آنها بخشی از یک توطئه جهانی برای اداره جهان هستند، پایبند نیستم. با این حال، کتاب نشان میدهد که ایدئولوژی که شرکتهای آنها به آن پایبند هستند، انگیزه امپریالیستی دارد
*با توجه به کارکردی که هوش مصنوعی برای دولتها دارد، فکر میکنید شرکتهای مرتبط با هوش مصنوعی چقدر به اخلاقیات توجه میکنند و صرفاً منافع دولتها را در نظر نمیگیرند؟ زیرا معتقدید افرادی مانند ایلان ماسک، مارک زاکربرگ و بیل گیتس به اشکال مختلف افراط گرایی کمک کرده اند.
من استدلال نمیکنم که ماسک، زاکربرگ و گیتس شخصاً مسئول هستند و من اصلاً به این دیدگاه خنده دار و در عین حال رایج در رسانههای اجتماعی مبنی بر اینکه آنها بخشی از یک توطئه جهانی برای اداره جهان هستند، پایبند نیستم. با این حال، کتاب نشان میدهد که ایدئولوژی که شرکتهای آنها به آن پایبند هستند، انگیزه امپریالیستی دارد، یعنی همه چیز در مورد توسعه طلبی است. فقط این است که نوع توسعه طلبی با اشکال قبلی متفاوت است، زیرا قلمرو فیزیکی را هدف نمیگیرد، بلکه دنیای دیجیتال/مجازی را هدف قرار میدهد؛ بنابراین منطق آنها برای جذب ما در دنیای دیجیتال/مجازی از طریق اینترنت، رسانههای اجتماعی یا اختراعات جدید مانند دنیای مجازی منطقی است، زیرا اینجاست که ما به مصرف کنندگان سازگار تبدیل میشویم، تحت نظارت و کنترل قرار میگیریم. مطابق با حاشیه سودی که این شرکتها سعی در به حداکثر رساندن آن دارند. این نوع امپریالیسم نه در یک قلمرو یا یک مکان قرار دارد، نه آمریکایی آمریکایی یا آسیایی یا چیزی دیگر، زیرا شهروندان آن مناطق خود هدف اصلی چنین رژیمهای سرمایه داری امپریالیستی هستند. در واقع، نابودی دموکراسی در ایالات متحده و از دست دادن همزمان ثبات در این کشور که به وجود آمده است، میتواند مستقیماً به قدرت امپریالیستی «غولهای فناوری» و تأثیر گالوانیزه بر اشکال مختلف افراط گرایی مرتبط باشد که با آن کنار آمد. مجدداً، این کتاب این ارتباطات جهانی را ایجاد میکند و نشان میدهد که چگونه میتوانیم از تهدیدها و فرصتها عبور کنیم تا از عزیزانمان و آینده جامعه آنطور که میشناسیم محافظت کنیم.
منبع: پول نیوز
کلیدواژه: استاد دانشگاه لندن هوش مصنوعی نژاد پرستی تبعیض جنسیتی خبرگزاری بازار مبتنی بر هوش مصنوعی کتاب نشان می دهد رسانه های اجتماعی فناوری هوش مصنوعی هوش مصنوعی کنترل دانشگاه لندن الگوریتم ها کنترل نشده شرکت ها دولت ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.poolnews.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «پول نیوز» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۴۹۷۰۲۵ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
رونمایی از کتاب هزار و چهارصد و خیلی زود در شیراز
به گزارش خبرگزاری صدا و سیما، مرکز فارس، به گفته میثم محمدی سرپرست نویسندگان: این کتاب به مدت یک سال و نیم و با تلاش ۱۲ نویسنده از گروه جهادی نادیان و با هدایت محمد حسین فاعظی کارشناس مسائل فلسطین نوشته شده است.
در این کتاب تلاش شده به دور از مسائل سیاسی، واقعیات و جزئیات زندگی مردم فلسطین در محاصره و زندگی شخصیت های فلسطینی در قالب داستانهای کوتاه روایت شود.