April 2024 28 / يکشنبه ۰۹ ارديبهشت ۱۴۰۳
استاد دانشگاه لندن مطرح کرد
کد خبر: ۴۰۰۷۲۰
۲۸ مرداد ۱۴۰۲ - ۱۳:۱۴
0
استاد اندیشه جهانی و فلسفه‌های تطبیقی در دانشگاه لندن معتقد است تک تک جنبه‌های زندگی معاصر در جوامع با تکنولوژی بالا تحت تأثیر فناوری هوش مصنوعی قرار گرفته است.

زندگی مستعد تکرار اشتباهات بزرگ گذشته

بر اساس کتاب جدید آرشین ادیب مقدم، استاد اندیشه جهانی و فلسفه‌های تطبیقی در دانشگاه لندن، نژادپرستی و تبعیض جنسی مدرن باید غلبه شود تا جامعه پساانسانی پایداری بسازیم که در آن بتوانیم در کنار دوستان سایبورگ خود در صلح باشیم.

«آیا هوش مصنوعی نژادپرستانه است؟، اخلاق هوش مصنوعی و آینده بشریت» موضوع فراگیر نژادپرستی را در الگوریتم‌هایی که زندگی روزمره ما را شکل می‌دهد روشن می‌کند و خواستار آینده‌ای فراگیرتر و مسئولانه‌تر است.

به گزارش خبرگزاری تحلیل بازار؛ پروفسور آرشین ادیب مقدم با تحقیق و تحلیل خود، نقش غول‌های فناوری و شخصیت‌های تأثیرگذار مانند ایلان ماسک، مارک زاکربرگ و بیل گیتس را تشریح می‌کند تا نشان دهد که چگونه ایده‌ها و اقدامات آن‌ها در گسترش اشکال مختلف افراط‌گرایی کمک می‌کند.

بسیاری از مردم متوجه نیستند که هر جنبه حیاتی از زندگی ما قبلاً توسط نوعی هوش مصنوعی کنترل می‌شود - بانکداری، مراقبت‌های بهداشتی، خرید، ایمیل ها، رسانه‌های اجتماعی و ... - و برخی از الگوریتم‌ها به وضوح تبعیض آمیز هستند. خطر این است که ما با چشم بسته از اشتباهات گذشته وارد این عصر جدید وجود انسان می‌شویم.

این کتاب بر تأثیر قابل توجه غول‌های فناوری تأکید می‌کند. نویسنده با گشودن شبکه پیچیده ارتباطات بین نژادپرستی عصر روشنگری و شیوه‌های تبعیض آمیز که در الگوریتم‌های امروزی جاسازی شده است، آشکار می‌کند که چگونه فناوری به طور ناخواسته سلسله مراتب اجتماعی و مرز‌های تبعیض آمیز را تثبیت می‌کند.

تجزیه و تحلیل کتاب از داده‌هایی که به فناوری هوش مصنوعی می‌خورند، دیدگاهی انتقادی در مورد پیامد‌های بالقوه برای امنیت بین المللی و حقوق بشر ارائه می‌دهد. ادیب مقدم با برجسته کردن پیامد‌های هشداردهنده توسعه کنترل نشده هوش مصنوعی، جامعه را ترغیب می‌کند تا در مورد نیاز فوری به دستورالعمل‌های اخلاقی و حکمرانی مسئولانه در این زمینه فکر کند. تجزیه و تحلیل و بینش او خوانندگان را وادار می‌کند تا در مورد خطرات بالقوه پیشرفت فن آوری کنترل نشده فکر کنند.

در ادامه گفتگوی بازار با پروفسور «آرشین ادیب مقدم»، رئیس مرکز مطالعات ایران در مدرسه مطالعات شرقی و آفریقایی دانشگاه لندن در مورد این کتاب آمده است.

«آرشین ادیب مقدم»، استاد کامل «سیاست در غرب آسیا» در دانشگده مطالعات شرقی و آفریقایی در دانشگاه لندن است. کتاب «روانشناسی ناسیونالیسم، تفکرات جهانی، تصورات ایرانی» که از سوی انتشارات «دانشگاه کمبریج» منتشر شده از جمله آثار وی است.

*در کتاب «آیا هوش مصنوعی نژادپرستانه است؟، اخلاق هوش مصنوعی و آینده بشریت» به موضوع تبعیض نژادی و جسنی در هوش مصنوعی پرداخته اید. اهمیت این موضوعات در عصر دیجیتال چیست؟

این کتاب نشان می‌دهد که چگونه فناوری هوش مصنوعی تبعیض جنسی و نژادپرستی را در جامعه ترکیب می‌کند، اگر هوش مصنوعی کنترل نشده و تنظیم نشده باقی بماند.

این کتاب ریشه‌های تاریخی داده‌های آلوده ما را، به‌ویژه در جوامع اروپایی و آمریکای شمالی، ردیابی می‌کند و برخی از مشکلات را با اشاره به نهاد‌های جهانی و فعالیت‌های جامعه مدنی به راه‌حل‌هایی برای آینده مرتبط می‌کند.

*کتاب شما به نوعی موضوع اخلاق در فناوری و نگرانی در مورد چگونگی توجه به اخلاق در هوش مصنوعی را مطرح می‌کند. به نظر شما، هوش مصنوعی در چه زمینه‌هایی ممکن است اخلاق را نادیده بگیرد؟ شما معتقدید که بسیاری از جنبه‌های زندگی انسان در گذشته توسط هوش مصنوعی کنترل می‌شد. به نظر می‌رسد نگران این هستید که انسان‌ها وارد دنیایی شوند که در آن هوش مصنوعی کنترل بیشتری بر زندگی انسان‌ها دارد. به نظر شما افزایش آگاهی در این زمینه وظیفه کیست؟

تک تک جنبه‌های زندگی معاصر در جوامع با تکنولوژی بالا تحت تأثیر فناوری هوش مصنوعی قرار گرفته و به طور فزاینده‌ای تعیین می‌شود. این شامل مراقبت‌های بهداشتی، بانکداری روزمره، آموزش و ... است. این کتاب نشان می‌دهد که الگوریتم‌های حاکم بر آن حوزه‌های زندگی ما مستعد اشتباهات گذشته هستند - تاریخ دردناک تبعیض و سرکوب سیستماتیک اقلیت‌ها متأسفانه بخشی از آن است. بنابراین، کتاب با مجموعه‌ای از توصیه‌ها برای زندگی روزمره به پایان می‌رسد، کار‌هایی که می‌توانیم برای محافظت از حریم خصوصی خود انجام دهیم.

هوش مصنوعی تنها پیشرفت در تاریخ جهانی ما است که ممکن است نظارت و کنترل انسانی را از بین ببرد

همچنین بخش‌های مختلفی در مورد گزینه‌های حکمرانی، در سطح محلی، ملی و بین‌المللی وجود دارد که ممکن است به شروع گفت‌وگوی جهانی درباره تدوین یک اجماع در مورد ضوابط رفتار برای برنامه‌های کاربردی مبتنی بر هوش مصنوعی کمک کند. در پایان، این ما شهروندان هستیم که نیاز به افزایش آگاهی و مشارکت دولت‌های خود داریم تا اطمینان حاصل کنیم که فناوری مبتنی بر هوش مصنوعی امنیت انسانی ما را تهدید نمی‌کند، بلکه آن را تقویت می‌کند. این امکان پذیر است و کتاب نشان می‌دهد که چرا انجام آن ضروری و ممکن است.

فناوری مبتنی بر هوش مصنوعی قبلاً نشان داده است که این پتانسیل را دارد که نظم سیاسی را مختل کند

*عواقب توسعه کنترل نشده هوش مصنوعی بر امنیت بین المللی و حقوق بشر چیست؟

فناوری مبتنی بر هوش مصنوعی قبلاً نشان داده است که این پتانسیل را دارد که نظم سیاسی را مختل کند. انتخاب دولت‌های دست راستی، از جمله دونالد ترامپ، برگزیت و سایر تحولات عمده توسط برخی از این الگوریتم‌ها انجام شد. علاوه بر این، با توجه به ماهیت خود-بهبود فناوری که با هر چیزی که قبلاً با آن مواجه شده‌ایم قابل مقایسه نیست، فناوری هوش مصنوعی می‌تواند به یک تهدید وجودی برای بشریت، یعنی برای گونه ما به عنوان یک کل تبدیل شود، زیرا هوش مصنوعی تنها پیشرفت در تاریخ جهانی ما است که ممکن است نظارت و کنترل انسانی را از بین ببرد.

مجدداً تأکید می‌کنم که اکنون زمان جلوگیری از این امر و تنظیم دستور کار است که سوء استفاده شرورانه از هوش مصنوعی را به عنوان وسیله‌ای برای حمل اشکال مختلف افراط گرایی و سیستم‌های سرکوبی مستقر به حداقل برساند.

استدلال نمی‌کنم که ماسک، زاکربرگ و گیتس شخصاً مسئول هستند و من اصلاً به این دیدگاه خنده دار و در عین حال رایج در رسانه‌های اجتماعی مبنی بر اینکه آن‌ها بخشی از یک توطئه جهانی برای اداره جهان هستند، پایبند نیستم. با این حال، کتاب نشان می‌دهد که ایدئولوژی که شرکت‌های آن‌ها به آن پایبند هستند، انگیزه امپریالیستی دارد

*با توجه به کارکردی که هوش مصنوعی برای دولت‌ها دارد، فکر می‌کنید شرکت‌های مرتبط با هوش مصنوعی چقدر به اخلاقیات توجه می‌کنند و صرفاً منافع دولت‌ها را در نظر نمی‌گیرند؟ زیرا معتقدید افرادی مانند ایلان ماسک، مارک زاکربرگ و بیل گیتس به اشکال مختلف افراط گرایی کمک کرده اند.

من استدلال نمی‌کنم که ماسک، زاکربرگ و گیتس شخصاً مسئول هستند و من اصلاً به این دیدگاه خنده دار و در عین حال رایج در رسانه‌های اجتماعی مبنی بر اینکه آن‌ها بخشی از یک توطئه جهانی برای اداره جهان هستند، پایبند نیستم. با این حال، کتاب نشان می‌دهد که ایدئولوژی که شرکت‌های آن‌ها به آن پایبند هستند، انگیزه امپریالیستی دارد، یعنی همه چیز در مورد توسعه طلبی است. فقط این است که نوع توسعه طلبی با اشکال قبلی متفاوت است، زیرا قلمرو فیزیکی را هدف نمی‌گیرد، بلکه دنیای دیجیتال/مجازی را هدف قرار می‌دهد؛ بنابراین منطق آن‌ها برای جذب ما در دنیای دیجیتال/مجازی از طریق اینترنت، رسانه‌های اجتماعی یا اختراعات جدید مانند دنیای مجازی منطقی است، زیرا اینجاست که ما به مصرف کنندگان سازگار تبدیل می‌شویم، تحت نظارت و کنترل قرار می‌گیریم. مطابق با حاشیه سودی که این شرکت‌ها سعی در به حداکثر رساندن آن دارند. این نوع امپریالیسم نه در یک قلمرو یا یک مکان قرار دارد، نه آمریکایی آمریکایی یا آسیایی یا چیزی دیگر، زیرا شهروندان آن مناطق خود هدف اصلی چنین رژیم‌های سرمایه داری امپریالیستی هستند. در واقع، نابودی دموکراسی در ایالات متحده و از دست دادن همزمان ثبات در این کشور که به وجود آمده است، می‌تواند مستقیماً به قدرت امپریالیستی «غول‌های فناوری» و تأثیر گالوانیزه بر اشکال مختلف افراط گرایی مرتبط باشد که با آن کنار آمد. مجدداً، این کتاب این ارتباطات جهانی را ایجاد می‌کند و نشان می‌دهد که چگونه می‌توانیم از تهدید‌ها و فرصت‌ها عبور کنیم تا از عزیزانمان و آینده جامعه آنطور که می‌شناسیم محافظت کنیم.

ارسال نظرات
نام:
ایمیل:
* نظر:
گزارش مجامع بیشتر
تولید 300 هزارتن کاتد به رغم کاهش بیش از 16 هزار تنی مصرف قراضه مس در سال 1401

تولید 300 هزارتن کاتد به رغم کاهش بیش از 16 هزار تنی مصرف قراضه مس در سال 1401

مدیرعامل مس در مجمع عمومی عادی این شرکت که با حضور اکثریت سهامداران در تالار وزارت کشور برگزار شد از کسب رتبه پنجم ذخایر جهانی مس تنها با اکتشاف 7 درصدمساحت کشور خبر دادو گفت: با توسعه اکتشافات رسیدن به رتبه دوم و سوم جهانی نیز برای ایران متصور است.
پربازدید
پرطرفدارترین
برای دریافت خبرنامه پول نیوز ایمیل خود را وارد نمایید: