جمعه ۱۴ آذر ۱۴۰۴

چشم انداز سرمایه داری از هوش مصنوعی: سود، قدرت و کنترل – رزگار اکراوی

مقدمه

هوش مصنوعی یکی از برجسته ترین نوآوری های انقلاب دیجیتال مدرن است. امکانات فوق العاده ای را برای افزایش بهره وری، پیشرفت علم و خدمات عمومی و کمک به حل بسیاری از چالش های پیش روی بشریت فراهم کرده است. تحولات اساسی را در زمینه های مختلف ایجاد کرده است و آن را به سنگ بنای توسعه جوامع مدرن تبدیل کرده است.

هوش مصنوعی شاخه ای پیشرفته از علوم فناوری اطلاعات است که هدف آن توسعه سیستم هایی است که قادر به شبیه سازی هوش انسانی از طریق محاسبات با کارایی بالا و نرم افزارهای هوشمند هستند. این به الگوریتم های پیشرفته و تکنیک های یادگیری ماشین و یادگیری عمیق برای تجزیه و تحلیل داده ها، تشخیص الگوها و تصمیم گیری مستقل یا نیمه مستقل بر اساس داده ها و پارامترهای ورودی متکی است.

هوش مصنوعی همچنین حجم عظیمی از داده های تولید شده توسط کاربران را پردازش و بازیافت می کند و به آن ظرفیت فزاینده ای برای سازگاری و خودسازی می دهد. این فناوری در حال حاضر در طیف گسترده ای از بخش ها مانند پزشکی و مراقبت های بهداشتی مورد استفاده قرار می گیرد ، جایی که به تشخیص بیماری ها و تجزیه و تحلیل داده های پزشکی ، آموزش از طریق توسعه سیستم های یادگیری تعاملی و همچنین صنعت ، اقتصاد ، رسانه ها ، حمل و نقل ، تدارکات و حتی بخش های امنیتی و نظامی از جمله نظارت ، کنترل ایدئولوژیک و سیاسی و توسعه سلاح کمک می کند.

هنگام بحث در مورد انواع هوش مصنوعی، بسته به ماهیت مقایسه می توانیم بین سطوح مختلف توسعه تمایز قائل شویم. 

امروزه رایج ترین نوع آن در مقایسه با هوش انسانی، هوش مصنوعی باریک است که برای کارهای خاصی مانند ترجمه بلادرنگ، تشخیص تصویر، عملکرد دستیارهای صوتی، تصحیح دستور زبان، تولید متن و غیره استفاده می شود. این نوع به داده های خاص متکی است و در یک محدوده تعریف شده بدون توانایی فراتر رفتن از آن عمل می کند.

از سوی دیگر، هوش مصنوعی عمومی مفهوم پیشرفته تری است که هدف آن ایجاد سیستم هایی است که قادر به تفکر و حل مشکلات در حوزه های مختلف به همان روشی است که مغز انسان عمل می کند. با این حال، هوش مصنوعی فوق هوشمند یک سطح نظری آینده است که انتظار می رود از توانایی های انسان در تجزیه و تحلیل، خلاقیت و تصمیم گیری پیشی بگیرد. اما در حال حاضر، در قلمرو مطالعات علمی تخیلی و نظری باقی مانده است، یا هنوز به طور عمومی اعلام نشده است، همانطور که در مورد بسیاری از پیشرفت های تکنولوژیکی که معمولا قبل از در دسترس قرار گرفتن در دسترس عموم به طور مخفیانه برای اهداف نظامی و امنیتی توسعه یافته و مورد استفاده قرار می گیرند.

تاریخ نشان می دهد که اینترنت و بسیاری از فناوری های پیشرفته دیگر تا سال ها پس از استفاده از آنها در محیط های بسته نظامی، اطلاعاتی و صنعتی برای عموم آشکار نشدند.

این فناوری در خلا کار نمی کند ، تحت تأثیر جهت گیری شرکت ها و دولت هایی است که آن را توسعه می دهند و س questionsالات اساسی را در مورد ماهیت واقعی آن و اینکه چه کسی از آن سود می برد ، ایجاد می کند. 

بر این اساس، این فناوری به صورت خنثی توسعه نمی یابد، بلکه منعکس کننده ساختار طبقاتی سیستمی است که آن را تولید کرده است. هوش مصنوعی، همانطور که امروزه توسعه یافته است، یک نهاد مستقل یا بی طرف نیست، بلکه مستقیما تحت سلطه قدرت های سرمایه داری است که آن را به گونه ای هدایت می کند که در خدمت منافع اقتصادی، سیاسی، اجتماعی و ایدئولوژیک آنها باشد.

همانطور که کارل مارکس و فردریش انگلس در مانیفست کمونیست اشاره کردند:


«بورژوازی هیچ وجه اشتراکی بین انسان و انسان باقی نگذاشته است، جز منافع شخصی عریان، «پرداخت نقدی» بی رحمانه… کرامت شخصی را به یک ارزش مبادله صرف تبدیل کرده است و همه چیز، از جمله دانش، را به ابزاری صرف برای سود تبدیل کرده است.»

این دقیقا در مورد هوش مصنوعی صدق می کند. علیرغم نقش و اهمیت زیاد آن، اکنون کالایی شده است تا به ابزاری برای به حداکثر رساندن سود و تقویت کنترل طبقاتی تبدیل شود. توسعه فعلی هوش مصنوعی را نمی توان صرفا به عنوان پیشرفت فنی درک کرد، این بخشی از سیستم سلطه طبقاتی است که از طریق آن شرکت های بزرگ و دولت های سرمایه داری به دنبال افزایش سود، تمرکز ثروت و بازتولید روابط تولید موجود هستند.

الگوریتم هایی که این سیستم ها را تامین می کنند از نظر ایدئولوژیک برای خدمت به طراحان خود هدایت می شوند. آنها برای به حداکثر رساندن بهره وری، تقویت سلطه انحصاری شرکت ها و تثبیت ارزش های سرمایه داری مهار می شوند. به این ترتیب، این فناوری ها به جای ابزاری برای رهایی بشریت از شرایط استثمار، به ابزارهای جدیدی برای بهره برداری از کار و تداوم نابرابری های اجتماعی و اقتصادی تبدیل می شوند.

هوش مصنوعی به سلاحی مرکزی در دست سرمایه تبدیل شده است. برای کاهش نیاز به نیروی انسانی، تشدید بیکاری یا سوق دادن کارگران یدی و فکری به بخش های دیگر و تعمیق نابرابری های اقتصادی و اجتماعی استفاده می شود. 

انحصار این فناوری ها به شرکت های بزرگ قدرت بی سابقه ای برای کنترل بازارها، تغییر شکل افکار و آگاهی عمومی و اعمال نظارت دیجیتالی جامع بر افراد و جوامع می دهد. این سیستمی را تثبیت می کند که در آن توده ها عمدتا یا به عنوان داده و نیروی کار ارزان استثمار می شوند یا توسط اتوماسیون به حاشیه رانده می شوند.

اگر سیستم سرمایه داری به تسلط بر هوش مصنوعی ادامه دهد، نتیجه می تواند یک جامعه عمیقا قطبی و نابرابر باشد، جایی که نخبگان فناوری سرمایه داری قدرت تقریبا مطلق را در اختیار دارند، در حالی که کارگران دستی و روشنفکری بیشتر به سمت حاشیه نشینی و محرومیت سوق داده می شوند.

چشم انداز سرمایه داری از هوش مصنوعی

  1. ابزاری برای به حداکثر رساندن سود و بهره برداری از داده ها و دانش تحت سرمایه داری

به حداکثر رساندن سود به بهای عدالت اجتماعی و حقوق بشر
تحت سیستم سرمایه داری فعلی، استفاده از فناوری، از جمله هوش مصنوعی، به سمت به حداکثر رساندن سود هدایت می شود. این فناوری ها به عنوان ابزاری کلیدی برای افزایش بهره وری و کاهش هزینه ها مورد استفاده قرار می گیرند. با این حال، این اغلب به قیمت کارگران دستی و فکری تمام می شود که با الگوریتم ها و سیستم های خودکار جایگزین می شوند و منجر به اخراج های دسته جمعی و افزایش بیکاری می شوند یا آنها را تحت شرایط ناپایدار به بخش های دیگر سوق می دهند.

برآوردهای اخیر نشان می دهد که هوش مصنوعی می تواند منجر به از دست دادن مشاغل گسترده در سال های آینده شود، به ویژه در بخش هایی که به کارهای معمول و خودکار متکی هستند. به عنوان مثال، در سال ۲۰۲۳، IBM، یکی از بزرگترین شرکت های فناوری جهان، اعلام کرد که استخدام حدود ۳۰ درصد از نقش های اداری (مانند منابع انسانی) را متوقف می کند تا ظرف پنج سال آینده برای جایگزینی آنها با برنامه های هوش مصنوعی جایگزین شود. این بدان معناست که هزاران شغل برای همیشه حذف خواهند شد، زیرا این شرکت معتقد است که کارهای روتین که قبلا توسط انسان انجام می شد، اکنون می تواند توسط ماشین ها کارآمدتر و سودآورتر مدیریت شود.

در اوایل سال ۲۰۲۴، Dropbox، یک شرکت متخصص در خدمات ذخیره سازی ابری، حدود ۱۶ درصد از کارکنان خود را اخراج کرد و این حرکت را به عنوان بخشی از یک برنامه “تجدید ساختار” متمرکز بر هوش مصنوعی به عنوان یک حوزه سرمایه گذاری کلیدی اعلام کرد. مدیریت توضیح داد که بسیاری از وظایفی که قبلا توسط انسان ها انجام می شد، اکنون خودکار هستند و حفظ آن کارگران را “غیرضروری” می کند.

این دو نمونه به وضوح منعکس کننده تأثیر هوش مصنوعی بر بازار کار و خطرات فزاینده بیکاری در میان کارگران یدی و روشنفکر، به ویژه در غیاب یا ضعف سیاست های حمایتی است که از حقوق اقتصادی و اجتماعی آنها محافظت می کند. میزان این آسیب پذیری با توجه به پویایی قدرت طبقاتی در هر کشور، سطح توسعه حقوق کارگران، و نقش و قدرت اتحادیه ها و چپ متفاوت است.

بهره برداری از داده ها تحت سرمایه داری دیجیتال

در همین حال، دستاوردهای بهره وری از اتوماسیون به جای بهبود دستمزدها یا کاهش ساعات کار، به سمت افزایش سود شرکت های بزرگ هدایت می شود. کسانی که شغل خود را حفظ می کنند، اغلب خود را در محیط های متزلزلی می بینند که در آن اکثر شرکت ها سیاست های سختگیرانه ای را برای افزایش بهره وری اعمال می کنند و از فناوری برای اعمال فشار بیشتر بر نیروی کار بهره برداری می کنند. این تمرکز مبتنی بر سود، نابرابری طبقاتی و اقتصادی را تشدید می کند و اکثریت قریب به اتفاق جامعه را به دوش می کشد تا بار تحول تکنولوژیکی را به دوش بکشد، در حالی که نخبگان سرمایه دار مزایا و سود را در انحصار خود دارند.


علاوه بر استثمار کارگران یدی و فکری در محیط های کاری سنتی، سرمایه داری دیجیتال از طریق فناوری و هوش مصنوعی، دامنه استثمار را گسترش داده است تا داده های شخصی، رفتار کاربر و ترجیحات را نیز شامل شود. 

این داده ها به کالایی تبدیل شده اند که نخبگان سرمایه دار از طریق آن سود جمع می کنند ، بدون اینکه هیچ گونه غرامت مستقیمی به کاربرانی که آن را تولید می کنند ، جبران می کنند. این داده ها برای شکل دادن به سیاست های سیاسی و اقتصادی، هدایت مصرف و اطمینان از بازتولید هژمونی سرمایه داری استفاده می شوند.

به عنوان مثال، رسوایی کمبریج آنالیتیکا در سال ۲۰۱۸ نشان داد که چگونه داده های ده ها میلیون کاربر فیس بوک بدون اطلاع آنها مورد سوء استفاده قرار گرفت و فروخته شد تا با هدف قرار دادن آنها با تبلیغات سیاسی مبتنی بر پروفایل رفتاری، بر انتخابات ایالات متحده تأثیر بگذارد.

شرکت هایی مانند گوگل و آمازون سالانه ده ها میلیارد دلار از تبلیغات هدفمند تولید می کنند که به تجزیه و تحلیل داده های تولید شده آزادانه توسط کاربران متکی است. تنها در سال ۲۰۲۱، درآمد فیس بوک از تبلیغات دیجیتال به ۱۱۷ میلیارد دلار رسید که بدون هیچ گونه مشارکت معنادار کاربران در این سودها جمع آوری شد.

این مدل استثمار نشان دهنده شکل غیرمستقیم کار بدون دستمزد است که در آن افراد ناآگاهانه ارزش اقتصادی گسترده ای تولید می کنند که توسط شرکت های انحصاری تصرف می شود. این شرکت ها نه تنها از داده ها بهره برداری می کنند، بلکه بر خود زیرساخت های دیجیتال نیز تسلط دارند و نوع جدیدی از فئودالیسم دیجیتال را ایجاد می کنند. درست همانطور که اربابان فئودال در قرون وسطی زمین را در انحصار خود داشتند، غول های فناوری امروزی سیستم های دیجیتال را در انحصار خود قرار می دهند، شرایط خود را بر کاربران تحمیل می کنند و آنها را از هرگونه کنترل واقعی بر ابزارهای تولید دیجیتال محروم می کنند.

در اقتصاد صنعتی ، استثمار از طریق دستمزدهایی اتفاق افتاد که نتوانست ارزش واقعی کار را منعکس کند. در اقتصاد دیجیتال، رفتار و داده های انسانی به منابع جدید ارزش تبدیل شده اند. هر کلیک، جستجو و تعامل به ماده خامی تبدیل می شود که سرمایه داری دیجیتال بدون هیچ گونه شناخت قانونی یا قراردادی انباشته می کند. 

استثمار دیجیتال دیگر به کار دستی و فکری کم درآمد محدود نمی شود، اکنون شامل خود کاربران می شود که به کارگران دیجیتال نامرئی تبدیل شده اند.

سرمایه داری دیجیتال این استثمار را در پشت لفاظی های “دسترسی رایگان” پنهان می کند و این توهم را ایجاد می کند که کاربران خدمات مفیدی را بدون هیچ هزینه ای دریافت می کنند، در حالی که در واقعیت، داده های آنها برای سود عظیم استخراج و کسب درآمد می شود.

برنامه هایی مانند TikTok و Instagram کاربران را تشویق می کنند تا زمان بیشتری را صرف تعامل با محتوا کنند و در عین حال داده های خود را به تبلیغ کنندگان جمع آوری و بفروشند بدون اینکه سهمی از سود را در اختیار کاربران قرار دهند. همین امر در مورد برنامه های به اصطلاح “حفاظت رایگان” مانند AVG نیز صدق می کند که اطلاعات حساس را تحت پوشش “بهبود خدمات و محافظت از ویروس” جمع آوری می کنند و بعدا آن را به شرکت های بازاریابی و تبلیغات می فروشند.

تجزیه و تحلیل داده ها نه تنها در تبلیغات استفاده می شود، بلکه برای آموزش سیستم های هوش مصنوعی، توسعه برنامه های جدید که تسلط شرکت ها بر دانش را بیشتر تحکیم می کند، و بر اقتصاد، روابط اجتماعی و موارد دیگر تأثیر می گذارد، استفاده می شود، همه بدون اینکه کاربران هیچ کنترلی بر داده های خود داشته باشند یا ادعای ارزش و سودی را که به تولید آن کمک می کنند، داشته باشند.

حتی نگران کننده تر این است که این مدل مرز بین زمان کار و اوقات فراغت را پاک می کند. هر لحظه ای که به صورت آنلاین سپری می شود به یک عمل مداوم تولید داده تبدیل می شود، حتی در طول سرگرمی، تعامل اجتماعی و تعامل فرهنگی. اینترنت خود به یک کارخانه دیجیتال ۲۴/۷ تبدیل شده است که تحت منطق سرمایه داری و فئودالیسم دیجیتال فعالیت می کند، جایی که شرکت های فناوری دیگر نه تنها خدمات ارائه می دهند، بلکه قوانین حاکم بر فضای دیجیتال را تعیین می کنند و کاربران را مجبور می کنند در سیستم های انحصاری خود کار کنند، بدون هیچ کنترلی بر ابزارهای تولید دیجیتال و هیچ آگاهی از استثماری که در معرض آن قرار دارند.

ارزش مازاد دیجیتال و ارزش مازاد سنتی


ارزش اضافی هسته استثمار سرمایه داری است، تفاوت بین ارزش تولید شده توسط کارگر و مزدی است که دریافت می کند. اما این مفهوم ثابت نیست. بر اساس شیوه تولید غالب تغییر می کند. امروزه می توان بین دو نوع اصلی تمایز قائل شد: ارزش اضافی سنتی و ارزش مازاد دیجیتال که در روابط تولیدی و استثماری زیربنایی خود متفاوت هستند.

اول: ارزش مازاد سنتی


در مدل صنعتی سنتی، ارزش اضافی از کار کارگران یدی و فکری در سایت های تولیدی مانند کارخانه ها، مزارع، ادارات و زنجیره های خدماتی استخراج می شود. این کارگران تحت قراردادهای کار مستقیم کار می کنند و دستمزدهایی را دریافت می کنند که به طور قابل توجهی کمتر از ارزش واقعی تولید می کنند. سرمایه مالک ابزار تولید است و نیروی کار را برای تولید سود از طریق کنترل زمان کار به کار می گیرد.

به عنوان مثال، در کارخانه های دستگاه های هوشمند که توسط شرکت های بزرگ جهانی مانند اپل و سامسونگ اداره می شوند، صدها هزار کارگر در آسیای جنوب شرقی ساعت های طولانی را با دستمزدهای پایین کار می کنند که به سختی هزینه های اولیه زندگی را پوشش می دهد، در حالی که این شرکت ها سودهای هنگفتی به دست می آورند. در سال ۲۰۲۳، سود اپل از ۱۰۰ میلیارد دلار فراتر رفت که بیشتر آن از فروش محصولات تولید شده در شرایط سخت کار و محیط های کاری استثماری به دست آمد.

دوم: ارزش مازاد دیجیتال


در مدل دیجیتال، ارزش اضافی به روش های پنهان تر و پیچیده تر استخراج می شود. این مدل صرفا به کار با دستمزد متکی نیست، بلکه به فعالیت های روزانه کاربران در فضای دیجیتال متکی است. 

هر کلیک، جستجو، لایک، اشتراک گذاری، دستور صوتی یا استفاده از برنامه داده هایی را تولید می کند که برای ایجاد سود کلان از طریق تبلیغات، آموزش الگوریتم، توسعه محصول و تجزیه و تحلیل رفتاری استفاده می شود. این داده ها در حوزه های سیاسی، اقتصادی، اجتماعی، فکری و حتی نظامی و امنیتی نیز مورد استفاده قرار می گیرند.

در اینجا هیچ قرارداد کار، دستمزد و حتی به رسمیت شناختن نقش تولیدی کاربر وجود ندارد. سرمایه داری دیجیتال زمان کار را نمی خرد، بلکه از خود زندگی روزمره ارزش می گیرد و این استثمار را در پشت نمای «خدمات رایگان» پنهان می کند. حتی زمانی که برخی از خدمات به صورت رایگان یا با قیمت های نمادین ارائه می شوند، اغلب از نظر عملکرد محدود هستند و در درجه اول به عنوان ابزاری برای جمع آوری داده های بیشتر کاربر برای به حداکثر رساندن سود و تقویت کنترل عمل می کنند.

نمونه های دنیای واقعی از این شکل از استخراج ارزش مازاد دیجیتال شامل پلتفرم های رسانه های اجتماعی است، جایی که کاربران محتوای رایگانی تولید می کنند که تعامل گسترده ای را به خود جلب می کند، که سپس به تبلیغ کنندگان فروخته می شود و سود کلانی برای پلتفرم ها ایجاد می کند، در حالی که اکثر سازندگان محتوا در صورت وجود، حداقل سهم را دریافت می کنند. این امر در مورد سرویس هایی مانند Google Maps نیز صدق می کند که برای بهبود سرویس و فروش آن به مشتریان تجاری، بدون جبران خسارت به کسانی که داده ها را ارائه کرده اند، به داده های مکان تولید شده توسط کاربران متکی هستند. 

دستیارهای صوتی مانند آمازون الکسا و اپل سیری دستورات صوتی را برای بهبود سیستم های هوش مصنوعی یا فروش داده ها به تبلیغ کنندگان و بازاریابان ضبط و تجزیه و تحلیل می کنند، بدون اینکه کاربران کوچکترین آگاهی از اینکه مستقیما به تولید ارزش مازاد دیجیتال کمک می کنند، داشته باشند.

سوم: مقایسه تحلیلی بین دو مدل

ارزش مازاد سنتیجنبهارزش مازاد دیجیتال
کار یدی و فکریچه کسی ارزش را تولید می کند؟فعالیت ها و تعاملات کاربر (حتی خارج از کار رسمی)
مواد، قابل مشاهدهدید فرآیندناملموس، پنهان؛ قابل مشاهده نیست
دستمزد قراردادی، پرداخت شده، ابزار متعلق به کارفرماماهیت تولیدغیر قراردادی، داوطلبانه، مبتنی بر رفتار، داده ها و تعاملات
ملموس، حتی اگر محدود یا ناعادلانه باشدجبراناغلب غایب است
تفکیک واضح بین زمان کار و اوقات فراغتجدایی کار و زندگیخطوط تار: مدل “زندگی به عنوان کار”
استثمار از طریق شکاف دستمزد و بهره وریمکانیسم استخراجکسب درآمد مبتنی بر داده و بهینه سازی الگوریتمی

چهارم: نتیجه گیری

سرمایه داری دیجیتال ارزش اضافی سنتی را از بین نمی برد. در عوض، شکلی جدید و پنهان تر اضافه می کند، که در آن مازاد از تعاملات دیجیتالی روزانه کاربران استخراج می شود، نه از کار فیزیکی یا فکری شناخته شده. زمان زندگی و فضای فراغت به کار نامرئی تبدیل می شود که از آن ارزش بدون دستمزد، قرارداد یا کنترل بر ابزارهای تولید دیجیتال استخراج می شود. 

بنابراین، تولید ارزش اضافی دیجیتال شامل همه می شود، نه فقط یک دسته خاص از کارگران یدی و روشنفکر، بلکه حتی “کاربران عادی” که ناآگاهانه به تغذیه یک سیستم تولیدی عظیم کمک می کنند که برای شرکت های انحصاری سود جمع می کند.

به این ترتیب، زندگی روزمره و رفتار انسانی، نه فقط کار مزدی، به منابع اولیه انباشت سرمایه در پیشرفته ترین شکل استثمار تبدیل می شوند.

اقتصاد دانش

در نظام سرمایه داری، تولید صنعتی، کشاورزی و تجاری دیگر تنها منابع ارزش اقتصادی نیستند، دانش به سوخت جدید سرمایه داری تبدیل شده است. 

اقتصاد دانش، که قرار بود ابزاری برای آزادی بشریت و بهبود زندگی باشد، به یک مکانیسم انحصاری جدید تبدیل شده است که برای تعمیق نابرابری طبقاتی و دیجیتال و تقویت کنترل شرکت ها و دولت های بزرگ بر ابزارهای تولید دیجیتال استفاده می شود، جایی که اقلیت کوچکی که مالک فناوری است، سرنوشت اکثریت را کنترل می کند.

نخبگان سرمایه داری بیشتر ابزارهای دانش، از حق ثبت اختراع، تحقیقات پیشرفته، الگوریتم ها، نرم افزارها و سیستم عامل ها گرفته تا پلتفرم های دیجیتال بزرگ را در انحصار خود دارند و به جای تبدیل این فناوری ها به منابعی که به همه خدمت می کنند، وابستگی تقریبا کاملی به محصولات دیجیتال خود تحمیل می کنند. 

حتی موسسات دانشگاهی و علمی که قرار بود فضاهایی برای تولید دانش آزاد باشند، تابع منطق بازار شده اند، جایی که تحقیقات علمی به موسسات بزرگ فروخته می شود و عموم مردم از دسترسی محروم می شوند مگر اینکه هزینه کنند و به جای اینکه با آنها به عنوان حقوق مشترک بشر رفتار کنند، کالایی شدن علم و دانش را تقویت می کنند.

سرمایه داری نه تنها به دنبال انحصار دانش است، بلکه از طریق کنترل برنامه های درسی آموزشی و محتوای دیجیتال، به طور سیستماتیک جهل تولید می کند و توده ها را به سمت صاف کردن روشنفکری هدایت می کند. 

اینترنت که می توانست ابزاری انقلابی برای گسترش آگاهی انتقادی باشد، به فضایی تبدیل شده است که تقریبا به طور کامل متعلق به دولت های بزرگ و شرکت های انحصاری است که جریان اطلاعات و دانش را در همه اشکال آن، با توجه به منافع اقتصادی، سیاسی و ایدئولوژیک خود کنترل می کنند.

  1. هوش مصنوعی به عنوان ابزاری برای سلطه و کنترل بر نیروی کار

سیستم سرمایه داری نه تنها از هوش مصنوعی برای افزایش بهره وری و سود استفاده می کند، بلکه از آن به عنوان ابزاری برای تثبیت کنترل طبقاتی و قرار دادن کارگران دستی و فکری در معرض مکانیسم های سختگیرانه تر نظارت و مقررات استفاده می کند. استفاده از هوش مصنوعی در محل کار نه تنها با هدف بهبود عملکرد انجام می شود، بلکه برای تشدید استثمار و انباشت سود به قیمت آزادی و حقوق کارگران نیز طراحی شده است.

با توسعه الگوریتم های هوشمند، شرکت ها اکنون می توانند هر حرکتی را که توسط کارگران انجام می شود، از طریق سیستم های ردیابی بهره وری، تجزیه و تحلیل داده ها یا معیارهای سرعت و کارایی عملکرد ردیابی کنند. این ابزارها اغلب برای تحت فشار قرار دادن کارگران، کاهش زمان استراحت و تحمیل ریتم های کاری طاقت فرسا استفاده می شوند و آنها را به چرخ دنده هایی در یک ماشین سرمایه داری خستگی ناپذیر تبدیل می کنند. 

این حالت جدید نظارت ممکن است محیط کاری سخت تری ایجاد کند، جایی که کارگران به متغیرهایی در معادله هوش مصنوعی تبدیل می شوند و کنترل کمی بر شرایط کاری خود دارند.

علاوه بر این، الگوریتم ها در فرآیندهای استخدام و اخراج استفاده می شوند. داده های بزرگ برای تعیین اینکه چه کسی شایسته استخدام یا حفظ است و چه کسی می تواند جایگزین شود، تجزیه و تحلیل می شود. این منجر به یک پویایی کاری ناپایدار می شود، جایی که بسیاری از کارگران به حاشیه رانده می شوند و به راحتی بر اساس استانداردهای کمی سفت و سخت، بدون توجه به جنبه های انسانی یا اجتماعی، دور انداخته می شوند. 

به عنوان مثال، نرم افزار هوش مصنوعی توسط شرکت های بزرگ استخدام مانند لینکدین برای تجزیه و تحلیل رزومه ها و غربالگری خودکار نامزدها استفاده می شود که منجر به تبعیض غیرمستقیم علیه کسانی می شود که دارای پیشینه های کمتر برخوردار هستند. الگوریتم ها تمایل دارند به نفع نامزدهایی باشند که با الگوهای بازار کار سرمایه داری همسو هستند، در حالی که کسانی را که مهارت های غیرمتعارف دارند یا تجربه خارج از هنجارهای اصلی را نادیده می گیرند.

این تغییر نه تنها نرخ بیکاری و ناامنی شغلی را با سوق دادن کارگران به بخش های دیگر افزایش می دهد، بلکه مدل «نیروی کار قابل جایگزینی» را نیز تقویت می کند، که در آن کارگران به راحتی کنار گذاشته می شوند، زمانی که کارایی کمتری نسبت به جایگزین های دیجیتال یا خودکار تلقی می شوند، بنابراین بازار کار را شکننده تر و استثمار عمیق تر می شود.

به عنوان مثال، در انبارهای آمازون، از سیستم های هوش مصنوعی برای نظارت بر حرکات کارگران، ردیابی نرخ بهره وری و تعیین اینکه چه کسی اهداف را برآورده می کند و چه کسی عقب است، استفاده می شود. بسیاری از آنها بر اساس معیارهای غیرانسانی اخراج می شوند که شرایط بهداشتی یا اجتماعی آنها را نادیده می گیرد. 

این امر در مورد شرکت های پلتفرمی مانند Uber، Deliveroo و Uber Eats نیز صدق می کند، جایی که کل زندگی کاری رانندگان توسط الگوریتم های هوش مصنوعی اداره می شود که سفارشات را تعیین می کنند، ساعات کاری را برنامه ریزی می کنند، دید برنامه را تعیین می کنند و حتی تصمیم می گیرند چه کسی سر کار می شود، حساب چه کسی مسدود شده است، یا درآمد چه کسی بر اساس رتبه بندی مشتری، تعداد سفرها یا تاخیر کاهش می یابد.  بدون نظارت انسانی یا در نظر گرفتن شرایط شخصی.

در این مدل، الگوریتم ها و هوش مصنوعی به مدیر، قاضی و جلاد واقعی تبدیل می شوند، در حالی که کارگران در یک بازار کار دیجیتال بسیار شکننده و استثمارگرانه بدون حمایت قانونی یا حقوق اتحادیه ای باقی می مانند. این امر منجر به اعتصابات و اعتراضات در چندین کشور شده است که خواستار به رسمیت شناختن کارگران پلتفرم به عنوان «کارمندان» به جای «پیمانکاران مستقل» و تضمین حقوق اساسی مانند حداقل دستمزد، بیمه درمانی و حق سازماندهی شده است.

  1. شکل دادن به آگاهی برای ترویج فرهنگ سرمایه داری نئولیبرال

این فناوری علاوه بر استفاده از هوش مصنوعی برای به حداکثر رساندن سود و تقویت کنترل اجتماعی، به طور سیستماتیک برای شکل دادن و هدایت تدریجی آگاهی فردی، با هدف ترویج فرهنگ و ارزش های سرمایه داری، به ویژه تجلیل از تمدن غرب و به طور خاص، ارزش های سرمایه داری آمریکایی به کار گرفته می شود. 

با تجزیه و تحلیل داده ها و رفتار کاربر، از الگوریتم ها برای کنترل محتوای نشان داده شده به کاربران در پلتفرم های دیجیتالی مانند شبکه های رسانه های اجتماعی، موتورهای جستجو و غیره استفاده می شود. این سیستم ها برای تغذیه افراد همسو با ارزش هایی که از جهان بینی، سیاست ها و ایدئولوژی سرمایه داری پشتیبانی می کنند، طراحی شده اند.

به عنوان مثال، در اکثر پلتفرم های دیجیتال، تبلیغات و محتوای تبلیغاتی کاربران را تشویق می کند تا محصولات بیشتری بخرند، حتی زمانی که نیازی واقعی به آنها ندارند. ارزش های سرمایه داری مانند تقدس ابدی مالکیت خصوصی، نابرابری طبقاتی، موفقیت فردی، ثروت، مصرف گرایی و سبک زندگی مجلل به عنوان معیاری برای یک زندگی “موفق” ترویج می شوند. مثال دیگر الگوریتم های جستجوی گوگل است که نتایج را بر اساس منطق بازار و تبلیغات پولی به جای ارتباط اجتماعی، فکری یا علمی رتبه بندی می کند. 

هنگام جستجوی اصطلاحاتی مانند “موفقیت”، “خودسازی” یا حتی “خوشبختی”، نتایج برتر به شرکت های خودیاری، دوره های پولی و توصیه های مصرف گرایانه متمرکز بر فردگرایی و سود مرتبط است، در حالی که تجزیه و تحلیل های علمی جدی و ایده های چپ مترقی از طریق سانسور مستقیم یا غیرمستقیم در بسیاری از موارد کم اهمیت جلوه داده می شوند، یا حتی کاملا پنهان می شوند.

این امر به تدریج و به طرز ماهرانه ای آگاهی جمعی را به سمت پذیرش این ارزش ها به عنوان طبیعی و اجتناب ناپذیر هدایت می کند. این روند در یک دوره طولانی و به گونه ای نرم و نامحسوس آشکار می شود که اکثر کاربران، از جمله متفکران چپ و مترقی، به این باور می رسند که این ابزارها کاملا خنثی هستند. این سیاست تهدیدی قابل توجه برای نسل های آینده است که هوش مصنوعی برای آنها به بخشی جدایی ناپذیر از زندگی روزمره تبدیل شده است. این روش ها و سیاست های تصفیه شده به تحکیم بیشتر هژمونی سرمایه داری و افزایش وفاداری و تسلیم توده ها به نظام موجود کمک می کند.

  1. تاثیر وابستگی بیش از حد بر هوش مصنوعی

فروپاشی مهارت های انسانی و تعمیق بیگانگی و بیگانگی دیجیتال
علاوه بر نقشی که هوش مصنوعی در تغییر شکل آگاهی توده ایفا می کند، بعد دیگری نیز وجود دارد که تا حد زیادی تحت قوانین بین المللی مطالعه نشده و تنظیم نشده باقی مانده است، به ویژه در میان رقابت دیوانه وار بین قدرت های بزرگ و شرکت های سرمایه داری انحصاری برای تسلط بر بازارهای هوش مصنوعی. این بعد مربوط به تأثیر منفی اتکای بیش از حد به هوش مصنوعی بر ظرفیت های فکری و خلاق انسان است. توسعه فناوری اکنون عمدتا به سمت سلطه، سودآوری و رقابت برای برتری فنی هدایت می شود، بدون در نظر گرفتن تأثیرات عمیقی که این تغییرات ممکن است بر بشریت داشته باشد.

هوش مصنوعی به عنوان ابزاری برای آسان تر کردن زندگی و افزایش بهره وری تبلیغ می شود. با این حال، واقعیت نشان می دهد که وابستگی غیرانتقادی به این فناوری ها ممکن است منجر به کاهش آگاهی و تضعیف مهارت های ضروری انسانی شود. با گذشت زمان، انسان ها، به ویژه نسل های جوان، ممکن است به دلیل اتکای بیش از حد به سیستم های هوشمندی که این وظایف را از طرف آنها انجام می دهند، توانایی تفکر انتقادی، انجام محاسبات، نوشتن و حتی ارتباطات اولیه را کاهش دهند.

در این زمینه، بیگانگی انسان به شکل دیجیتالی جدیدی بازتولید می شود، جایی که افراد از توانایی های فکری و خلاق خود جدا می شوند و در یک سیستم تکنولوژیکی به دام می افتند که آنها را از نمایندگی خودمختار محروم می کند، درست مانند کارگران صنعتی که تحت سرمایه داری سنتی از محصولات خود بیگانه شده اند. 

انسان ها ممکن است به تدریج تابع الگوریتم هایی شوند که تعاملات روزانه آنها را هدایت می کنند، آنچه را که می خوانند و تماشا می کنند دیکته می کنند و حتی نحوه تفکر آنها را شکل می دهند. این ممکن است منجر به نسلهایی شود که فاقد ظرفیت تعامل مستقل با واقعیت هستند و هوش مصنوعی به رابط اصلی بین فرد و جهان تبدیل می شود و وابستگی آنها به سیستم ها، شرکت ها و دولت های تحت کنترل سرمایه را تقویت می کند.

این بیگانگی دیجیتالی در سطح تولیدی متوقف نمی شود. این به بعد بسیار عمیق تری گسترش می یابد، بیگانگی از خود، از آگاهی و از روابط اجتماعی. هویت شخصی و فرهنگی صرفا بازتابی از الگوریتم های طراحی شده برای خدمت به بازار می شود.

خطر در اینجا به از دست دادن مهارت های فردی محدود نمی شود، بلکه به تغییر شکل آگاهی جمعی به روش هایی که با خواسته های بازارهای سرمایه داری همسو باشد، گسترش می یابد. این امر توانایی افراد را برای سازماندهی، مقاومت و درخواست تغییرات اساسی تضعیف می کند و آنها را به تدریج به حباب های دیجیتالی منزوی سوق می دهد که در آن تعامل انسانی به پلتفرم هایی کاهش می یابد که جریان اطلاعات را کنترل می کنند و روابط اجتماعی را در خدمت سلطه تغییر شکل می دهند.

اعتیاد دیجیتال


در این چارچوب، اعتیاد دیجیتال به عنوان یکی از خطرناک ترین پیامدهای گسترش هوش مصنوعی ظاهر می شود. یک مطالعه علمی که توسط محققان دانشگاه کالیفرنیا در سال ۲۰۲۰ انجام شد، نشان داد که استفاده بیش از حد از پلتفرم های دیجیتال و رسانه های اجتماعی، که توسط الگوریتم های هوش مصنوعی هدایت می شود، باعث تغییراتی در مغز می شود که مشابه آنچه ناشی از اعتیاد به مواد مخدر است، به ویژه در مناطقی که مسئول تصمیم گیری و کنترل رفتار هستند، ایجاد می شود. این الگوریتم ها عمدا طراحی شده اند تا توجه کاربران را جلب کنند و آنها را تا زمانی که ممکن است متصل نگه دارند.

رسانه های اجتماعی، برنامه های سرگرمی و سایر سیستم های دیجیتال صرفا پلتفرم های خدماتی نیستند، بلکه ابزارهایی هستند که آگاهانه برای تقویت وابستگی رفتاری و شناختی استفاده می شوند. مجموعه داده های عظیم برای درک و دستکاری انگیزه های کاربران به روش هایی که در خدمت منافع اقتصادی شرکت ها و کشورهای بزرگ باشد، مورد بهره برداری قرار می گیرند.

این اعتیاد دیجیتال نه تنها زمان را تلف می کند یا بر بهره وری تأثیر می گذارد، بلکه شکل جدیدی از بیگانگی را از طریق اعتیاد ایجاد می کند، زیرا افراد به تدریج توانایی زندگی خارج از چارچوب دیجیتال را از دست می دهند. این می تواند منجر به کاهش تمرکز، کاهش مهارت های حل مسئله، تضعیف حافظه و بدتر شدن ارتباط مستقیم انسان شود.

سرمایه داری از این اعتیاد به طرق مختلف سوء استفاده می کند و در فناوری هایی سرمایه گذاری می کند که رفتار اعتیاد آور را تحریک می کند تا اطمینان حاصل کند که کاربران در تعامل مداوم با پلتفرم های دیجیتال باقی می مانند. این به یک چرخه معیوب تبدیل می شود که در آن سود با نگه داشتن افراد در حالت ثابت مصرف غیرفعال ایجاد می شود و درآمد شرکت ها را به قیمت سلامت روان و روانی، به ویژه در میان نسل های جوان افزایش می دهد. با گذشت زمان، این ممکن است توانایی آنها را برای تفکر مستقل و اقدام جمعی از بین ببرد.

شکلی از برده داری دیجیتالی داوطلبانه


سلطه طبقاتی عمیق تر می شود زیرا هوش مصنوعی از یک ابزار تکنولوژیکی به مکانیزمی برای بازتولید الگوهای کنترل اجتماعی، سیاسی و اقتصادی تبدیل می شود. اگر این مدل ادامه یابد، می تواند منجر به فجایع انسانی شود، زیرا انسان ها به تدریج توانایی خود را برای رویارویی با چالش های پیچیده از دست می دهند و اسیر فناوری های تحت کنترل نخبگان سرمایه داری و قدرت های بزرگ می شوند.

آنچه این کنترل را خطرناک تر می کند، ماهیت داوطلبانه آن است. افراد، با انگیزه دستکاری الگوریتمی و میل به راحتی، بدون اجبار مستقیم به این بردگی دیجیتال کشیده می شوند. به آنها توهم کنترل و انتخاب داده می شود، در حالی که تصمیمات آنها به طرز ماهرانه ای به سمت مسیرهای از پیش تعیین شده ای هدایت می شود که در خدمت منافع سرمایه داری است. 

این تسلیم ناشی از توافق آگاهانه نیست، بلکه از افزایش اتکا به فناوری هایی است که به جایگزین های مصنوعی برای روابط انسانی و فرآیندهای شناختی مستقل تبدیل می شوند. این منجر به حالتی از بیگانگی دیجیتالی می شود که در آن مردم به جای مقاومت در برابر آنها، با همان ابزارهایی که بر آنها تسلط دارند، همذات پنداری می کنند.

اگر این پویایی بدون کنترل و بدون مقاومت جمعی ریشه در آگاهی چپ مترقی ادامه یابد، هوش مصنوعی کنونی ممکن است به تدریج از صرفا ابزاری برای سرمایه داری به جایگزینی برای شناخت انسان، حاکم بر زندگی روزمره و تحمیل شکل جدیدی از بردگی داوطلبانه دیجیتال تکامل یابد. 

در این سناریو، افراد در دام سیستم های تکنولوژیکی گرفتار می شوند که نقش ها و رفتارهای آنها را تعریف می کند، ظرفیت آنها را برای تصمیم گیری مستقل محدود می کند و آنها را وادار می کند تا این سلطه را به عنوان یک واقعیت اجتناب ناپذیر بپذیرند.

شورش ماشین و کنترل هوش مصنوعی بر بشریت


سناریوهای آینده مدت هاست که دنیایی را تصور می کنند که توسط ماشین ها اداره می شود، جایی که انسان ها کنترل فناوری هایی را که ایجاد کرده اند از دست می دهند و به چرخ دنده های سیستمی تبدیل می شوند که به قدرت های مسلط خدمت می کند. این چشم انداز که زمانی قلمرو فلسفه یا فیلم های علمی تخیلی بود، در بحبوحه پیشرفت سریع هوش مصنوعی و عدم وجود چارچوب های حقوقی بین المللی موثر برای تنظیم و کنترل آن، به طور فزاینده ای واقع بینانه شده است.

یکی از جدی ترین و پیچیده ترین مسائل ناشی از توسعه هوش مصنوعی این احتمال است که بتواند فراتر از هوش انسانی تکامل یابد و به موجودی مستقل خارج از کنترل انسان و حتی مسلط بر بشریت تبدیل شود. هنگامی که هوش مصنوعی از محدودیت های برنامه نویسی اصلی خود فراتر رود، ممکن است به سیستمی تبدیل شود که به طور مستقل در زمینه هایی مانند اقتصاد، سیاست و زندگی روزمره، بدون نظارت انسان، تصمیمات سرنوشت ساز می گیرد. 

تحت سرمایه داری، هوش مصنوعی برای خدمت به انباشت سرمایه و تقویت سلطه طبقاتی، در معرض رقابت وحشیانه بازار، توسعه می یابد و از دست دادن کنترل را نه تنها ممکن می کند، بلکه بسیار محتمل و خطرناک می کند، به ویژه با توجه به سرعت رعد و برق توسعه آن که بسیار از هر گونه تلاش برای تنظیم یا مهار آن در چارچوب های قانونی یا اجتماعی پیشی می گیرد. این به عنوان ابزاری با قابلیت های عظیم طراحی شده است، اما بدون هیچ «قفس» برای محدود کردن سوء استفاده ها یا رشد فراری آن، که می تواند آن را به یک نیروی خودمختار تبدیل کند که به جای خدمت به منافع اجتماعی علیه آنها کار می کند.

این سناریو برای سینما بیگانه نیست. بسیاری از فیلم ها به این ایده پرداخته اند ، به عنوان مثال ، ترمیناتور ، که در آن ماشین ها پس از دستیابی به خودآگاهی به انسان اعلام جنگ می کنند. ماتریکس، که دنیایی را به تصویر می کشد که در آن بشریت به بردگی هوش مصنوعی است و به عنوان منبع انرژی استفاده می شود. و من، ربات، که شورش ربات ها علیه انسان ها را پس از به دست آوردن استدلال مستقل بررسی می کند. “شورش” هوش مصنوعی ممکن است خیالی باقی نماند، ممکن است در سیاست های تحمیل شده از طریق سیستم های دیجیتال بدون توجه به نیازهای انسانی آشکار شود. آنچه امروز شاهد آن هستیم سلطه کلاسیک ربات ها بر انسان نیست، اما می تواند به مدل جدیدی از کنترل دیجیتال مبتنی بر اتوماسیون کامل و حاکمیت الگوریتمی زندگی روزمره تبدیل شود و جوامع را به موجوداتی تبدیل کند که توسط سیستم ها و ماشین های هوشمند مدیریت و تحت سلطه هستند.

  1. هوش مصنوعی و جهان سوم

اثرات هوش مصنوعی به کشورهای توسعه یافته محدود نمی شود، بلکه به جنوب جهانی نیز گسترش می یابد، جایی که به عنوان پایه ای از منابع خام و بازارهای مصرفی عظیم که برای خدمت به سرمایه داری جهانی به کار گرفته می شود، در نظر گرفته می شود. این فناوری ها به جای کمک به توسعه مستقل این کشورها، به گونه ای هدایت می شوند که وابستگی اقتصادی، سیاسی، فکری و فناوری را تقویت می کنند و استثمار این جوامع را به نفع دولت ها و شرکت های مسلط که توسعه هوش مصنوعی را هدایت می کنند، عمیق تر می کند.

شرکت های انحصاری به دنبال بهره برداری از داده ها و منابع انسانی در جنوب جهانی بدون ارائه ارزش منصفانه در ازای آن هستند. در حالی که هوش مصنوعی به طور عمومی به عنوان ابزاری برای توسعه تبلیغ می شود، در واقع برای استخراج داده ها و تبدیل جمعیت ها به منابع رایگان اطلاعات استفاده می شود. 

حجم عظیمی از داده ها از طریق برنامه های دیجیتال، سیستم های ردیابی و پلتفرم های رسانه های اجتماعی جذب می شود، هر تعامل به مواد اولیه ای تبدیل می شود که به نفع کشورهای قدرتمند و شرکت های انحصاری پردازش می شود، بدون بازده اجتماعی برای جمعیت محلی.

ابتکارات “خیریه” و “بشردوستانه” به رهبری برخی از ایالت ها و شرکت های بزرگ فناوری برای تعمیق کنترل سرمایه داری بر جنوب جهانی استفاده می شود. این شرکت ها سخت تلاش می کنند تا دسترسی به اینترنت را به هر گوشه ای از جهان، به ویژه برای کشورهای در حال توسعه، حتی قبل از ارائه برق، آب تمیز یا خدمات اولیه برسانند.

یک نمونه پروژه Internet.org است که توسط متا (فیس بوک سابق) با مشارکت شش شرکت فناوری دیگر با شعار “اتصال افراد غیرمتصل” راه اندازی شد. دسترسی محدود و مدیریت شده به اینترنت را در برخی کشورها ارائه می داد که به پلتفرم ها و خدمات شرکت حامی و شرکای آن محدود می شد، به جای ارائه یک اینترنت آزاد و باز. به جای توانمندسازی کاربران، آنها به مصرف کنندگان اسیر در یک محیط دیجیتال بسته تبدیل شدند که در آن تعاملات آنها به طور مداوم نظارت می شود و برای سود مورد بهره برداری قرار می گیرد. 

این نشان می دهد که هدف واقعی چنین پروژه هایی بهبود استانداردهای زندگی یا توسعه زیرساخت ها نیست، بلکه ارتقای منافع تجاری، گسترش کنترل ایدئولوژیک و تبدیل هر فرد به یک مصرف کننده دائمی و منبع داده است.

این سیاست ها شکاف دیجیتالی را پر نمی کند. در عوض، آنها استعمار را بازتولید می کنند، که اکنون به شکل دیجیتال است. این کشورها به جای ایجاد قابلیت های محلی برای رفع نیازهای واقعی خود، برای فناوری و خدمات دیجیتالی به طور کامل به دولت ها و شرکت های خارجی وابسته می شوند. 

این امر اتکا به نرم افزارهای اختصاصی و زیرساخت های ابری خارجی، به ویژه آنهایی که متعلق به قدرت های غربی با سابقه طولانی استثمار استعماری هستند، تثبیت می کند.

در رقابت جهانی برای تسلط تکنولوژیکی، رژیم های اقتدارگرا در خاورمیانه و جاهای دیگر در جنوب جهانی، به ویژه پادشاهی های ثروتمند خلیج فارس، در حاشیه باقی نمانده اند. این کشورها میلیاردها دلار در ابتکارات هوش مصنوعی خود سرمایه گذاری کرده اند و از حمایت مستقیم قدرت های بزرگ و شرکت های انحصاری دریافت کرده اند که مدت ها آنها را متحدان استراتژیک برای پیشبرد منافع اقتصادی و ژئوپلیتیکی می دانند. 

اگرچه این سرمایه گذاری ها به عنوان بخشی از «تحول دیجیتالی» و «مدرنیزاسیون تکنولوژیکی» جوامع آنها ترویج می شود، اما در خدمت تقویت حکومت دیکتاتوری، گسترش قابلیت های نظارتی و تشدید کنترل سیاسی، اجتماعی و ایدئولوژیک بر جمعیت آنها است. 

این رژیم ها از هوش مصنوعی برای توسعه سیستم های نظارت جمعی، تجزیه و تحلیل داده های بزرگ و سرکوب هرگونه مخالفت استفاده می کنند. فناوری های تشخیص چهره، تجزیه و تحلیل صدا و پیش بینی رفتار برای شناسایی و خنثی کردن مخالفت قبل از اینکه حتی بتواند عمل کند، استفاده می شود. از طریق این سیستم ها، دولت های اقتدارگرا می توانند شهروندان را هم از طریق کانال های دیجیتال و هم از طریق فضاهای عمومی نظارت و جاسوسی کنند.

علیرغم لفاظی های سطحی پیرامون دموکراسی و حقوق بشر، دولت های غربی و شرکت های بزرگ همچنان به حمایت از چنین رژیم هایی ادامه می دهند زیرا آنها در خدمت سلطه اقتصادی و سیاسی خود هستند. شرکت های فناوری انحصاری نقش مستقیمی در این سرکوب ایفا می کنند، یا با فروش خود فناوری (شبیه به سلاح و دستگاه های شکنجه)، یا با ارائه مشاوره، پشتیبانی فنی و زیرساخت برای سیستم های هوش مصنوعی که این رژیم ها به آنها متکی هستند. این سیستم ها آزادانه توسعه یافته و در دولت های اقتدارگرای متحد با سرمایه داری جهانی مستقر می شوند و به ابزارهای مستقیمی برای بازتولید و تقویت قدرت استبدادی تبدیل می شوند.

  1. تعصب جنسیتی و عدم برابری کامل در هوش مصنوعی

علیرغم درک کلی از هوش مصنوعی به عنوان جنسیتی خنثی، نگاهی دقیق تر نشان می دهد که سوگیری های جنسیتی تعبیه شده در الگوریتم ها و سیستم های هوشمند به وضوح نشان می دهد که چگونه اکثر برنامه های هوش مصنوعی تبعیض جنسیتی و نابرابری را بازتولید می کنند. 

زبان مرد محور و ماهیت نابرابر این فناوری ها منعکس کننده تعصبات فرهنگی و اجتماعی است که توسط شرکت های سرمایه داری و دولت های مردسالار که آنها را توسعه داده اند، در سطوح مختلف بسته به زبان، و میزان حقوق زنان و برابری جنسیتی در هر کشور، به آنها وارد می شود.

هوش مصنوعی ذاتا مردانه نیست، اما از داده های یک جامعه سرمایه داری مردسالار تغذیه می کند. الگوریتم ها بر روی مجموعه داده هایی آموزش می بینند که اغلب تفکر کلیشه ای را منعکس می کنند و نابرابری جنسیتی را تقویت می کنند، مانند استفاده از زبان تحت سلطه مردان و برداشت های سنتی از نقش های جنسیتی در کار و جامعه. 

به عنوان مثال، یک مطالعه در سال ۲۰۱۹ توسط دانشگاه کارنگی ملون نشان داد که آگهی های شغلی در فیس بوک و گوگل تمایل دارند مشاغل فنی و مهندسی با درآمد بالاتر را بیشتر از زنان نشان دهند.

به طور مشابه، در سال ۲۰۱۸، رویترز فاش کرد که سیستم استخدام مبتنی بر هوش مصنوعی آمازون به طور خودکار نامزدهای مرد را نسبت به زنان در ارزیابی درخواست های شغلی برای نقش های فناوری ترجیح می دهد. این الگوریتم بر روی داده های استخدام تاریخی آموزش دیده است که منعکس کننده سوگیری ساختاری در شرکت است، جایی که مردان در طول تاریخ اکثر موقعیت های فنی را در اختیار داشتند. در نتیجه، سیستم رزومه هایی را که شامل کلمه “زنان” یا فعالیت های فمینیستی ارجاع داده بودند، کاهش داد.

علاوه بر این، سیستم های مبتنی بر صدا مانند دستیارهای هوشمند معمولا با صدای زنان و نقش های خدمات محور برنامه ریزی می شوند و کلیشه زنان را به عنوان “مطیع” یا “مددکار” به جای شرکای برابر تقویت می کنند. به عنوان مثال، دستیارهای مجازی مانند سیری اپل، الکسا آمازون و دستیار گوگل به طور پیش فرض صدای زنان را انتخاب می کنند و به انتقادات با لحنی مودبانه و مطیع پاسخ می دهند و هنجار فرهنگی را تقویت می کنند که زنان را با خدمات و پشتیبانی مرتبط می کند.

در حال حاضر، برخی از کشورهای خاورمیانه میلیاردها دلار در توسعه پروژه های هوش مصنوعی بر اساس ارزش های مذهبی مردسالارانه محافظه کار سرمایه گذاری می کنند و تعصبات جنسیتی را بیشتر در این سیستم ها تعبیه می کنند. به عنوان مثال، برخی از دستیارهای صوتی عربی با استفاده از صداهای مردانه به جای صدای زنانه ساخته شده اند تا بر اساس برخی تفاسیر مذهبی محافظه کارانه، از کلیشه زنان به عنوان «مطیع» اجتناب کنند. 

بسیاری از سیستم های دیجیتال در این کشورها نیز حضور زنان را در محتوای دیجیتال محدود می کنند یا دیدگاه های سنتی را منعکس می کنند که نقش زنان را در جامعه به حداقل می رساند. به عنوان مثال، برخی از دولت های اقتدارگرا از سیستم های هوش مصنوعی برای نظارت بر رفتار اجتماعی و اجرای استانداردهای اخلاقی الهام گرفته از ارزش های مذهبی مردسالارانه، مانند محدود کردن تصاویر زنان بی حجاب یا محدود کردن دید آنها در نتایج جستجو و تبلیغات استفاده می کنند. یکی از افراطی ترین نمونه های این استثمار، توسعه سیستم های هوش مصنوعی برای نظارت بر لباس زنان، تجزیه و تحلیل تصاویر و فیلم ها برای تعیین اینکه آیا آنها با قوانین پوشش مذهبی تحمیلی مطابقت دارند یا خیر، است. به عنوان مثال، در ایران، سیستم های دیجیتالی برای ردیابی پایبندی زنان به قوانین حجاب اجباری به کار گرفته شده است.

نمایندگی کم زنان در طراحی و توسعه هوش مصنوعی، عدم مشارکت موثر فمینیستی و مترقی در این زمینه، و ماهیت مردسالار تیم های توسعه، همگی این مشکل را تشدید می کنند. بر اساس گزارشی از موسسه AI Now، زنان تنها ۱۵ درصد از محققان هوش مصنوعی در فیس بوک و تنها ۱۰ درصد در گوگل را تشکیل می دهند، به این معنی که اکثر فناوری های هوش مصنوعی توسط تیم های مرد توسعه یافته اند که تعصب جنسیتی را در الگوریتم ها تثبیت می کند.

فناوری در این زمینه نه تنها سوگیری های جنسیتی را منعکس می کند، بلکه آنها را بازتولید و تقویت می کند و به جای بستن آنها، مانع پیشرفت به سمت برابری و تعمیق شکاف های جنسیتی می شود. این سیستم ها کلیشه ها را تقویت می کنند و تبعیض علیه زنان را تداوم می بخشند. این صرفا یک مسئله فنی نیست، بلکه بازتابی از یک بحران اجتماعی عمیق تر است که الگوهای نابرابری و تبعیض در قلمرو دیجیتال را مجددا تأیید می کند.

۷. هوش مصنوعی به عنوان ابزاری برای کنترل سیاسی، سرکوب و نقض حقوق بشر

نظارت و کنترل دیجیتال


شرکت های دیجیتال با همکاری قدرت های بزرگ، از طریق دستگاه های هوشمند و کانال های ارتباطی مختلف، تحرکات افراد را رصد می کنند. تقریبا تمام فعالیت های دیجیتال، از جمله جلسات ظاهرا خصوصی، در معرض ردیابی و تجزیه و تحلیل مداوم هستند. در واقعیت، هیچ فضای دیجیتالی کاملا امن نیست. داده ها به صورت سیستماتیک جمع آوری و برای ارزیابی و طبقه بندی افراد و گروه ها بر اساس رفتار، تمایلات فکری و جهت گیری های سیاسی آنها استفاده می شود.

علاوه بر این، نظارت دیجیتال به ابزاری مرکزی برای ردیابی تمایلات ایدئولوژیک و سیاسی کاربران تبدیل شده است و شرکت ها و دولت ها را قادر می سازد تا آنها را از طریق کمپین های اطلاعات نادرست سازمان یافته یا تحریم های دیجیتالی که نفوذ آنها را در افکار عمومی محدود و کاهش می دهد، دنبال و هدف قرار دهند. 

این استراتژی ها به طور سیستماتیک و مخفیانه علیه اتحادیه های کارگری، سازمان های چپگرا و نهادهای مستقل حقوق بشر و رسانه ها اعمال می شود. 

این گروه ها با محدودیت های فزاینده ای روبرو هستند که گسترش ایده های آنها را در حوزه دیجیتال عمومی از طریق روش های ظریف و دشوار محدود می کند.

الگوریتم ها دقیقا برای محدود کردن دسترسی محتوای سیاسی چپ و مترقی استفاده می شوند، نه با حذف کامل آن، بلکه با کاهش دید آن. این امر سرکوب دیجیتال را پیچیده تر، خطرناک تر و نامرئی تر می کند. 

به نظر می رسد تعامل کم با محتوای پیشرونده یک پاسخ طبیعی مخاطب است، در حالی که در واقع، ناشی از الگوریتم های از پیش برنامه ریزی شده ای است که برای محدود کردن دسترسی آن طراحی شده اند. این تصور نادرستی را در میان فعالان ایجاد می کند که ایده های آنها فاقد علاقه یا محبوبیت است و آنها را به تجدید نظر یا کنار گذاشتن مواضع خود سوق می دهد.

شکست گرایی دیجیتال


شکست گرایی دیجیتال ابزاری جدید و پیچیده برای سلطه طبقاتی است. الگوریتم ها و هوش مصنوعی به طور روشمند، نامحسوس و به تدریج در طول زمان برای انتشار محتوایی استفاده می شوند که احساس درماندگی و تسلیم را به ویژه در میان کاربران چپ گرا و مترقی تقویت می کند. 

این مکانیسم شکست های درک شده آزمایش های سوسیالیستی و سازمان های چپ را تقویت می کند، سرمایه داری را به عنوان یک سیستم ابدی و شکست ناپذیر به تصویر می کشد و این تصور را تقویت می کند که تغییر غیرممکن است. همچنین فردگرایی و راه حل های بازار محور مانند مصرف و خودسازی را ترویج می کند و افراد را از هر شکلی از کنش سیاسی جمعی سازمان یافته جدا می کند.

علاوه بر این، بحث ها در درون سازمان های چپ به سمت درگیری های داخلی حاشیه ای معطوف می شود که تلاش ها را تکه تکه می کند و توانایی مقاومت آنها را تضعیف می کند. شرکت های بزرگ برای هدف قرار دادن افراد و گروه ها با محتوایی که ناامیدی را تقویت می کند و آنها را متقاعد می کند که تغییر سوسیالیستی غیرممکن یا بیهوده است، به تجزیه و تحلیل رفتاری متکی هستند. 

این سیاست ها تصادفی نیستند، آنها روش های علمی و عمدی هستند که برای سرکوب یا تضعیف روح تغییر و اطمینان از اینکه نظام سرمایه داری بدون چالش و دست نخورده باقی می ماند طراحی شده اند.

دستگیری و ترور دیجیتال


دستگیری دیجیتال نشان دهنده مرحله خطرناک تری از نظارت و کنترل صرف است. این فراتر از محدود کردن دید محتوا است و شامل تعلیق خودسرانه حساب های فردی و گروهی، به طور موقت یا دائمی، در چیزی است که می تواند نوعی ترور دیجیتال در نظر گرفته شود. این کار بدون شفافیت، استانداردهای روشن یا قوانین محلی یا بین المللی که از حقوق کاربران محافظت می کند انجام می شود. توجیهات مانند “نقض استانداردهای جامعه” یا “ترویج خشونت” اغلب برای ساکت کردن صداها استفاده می شود، حتی زمانی که محتوا جنایات سرمایه داری انجام شده توسط دولت ها یا شرکت ها یا نقض حقوق بشر را مستند می کند.

یک نمونه بارز سرکوب دیجیتالی است که محتوای فلسطینی ها را هدف قرار می دهد که جنایات اسرائیل علیه غیرنظامیان را مستند می کند. در جریان حمله اخیر اسرائیل به غزه، پلتفرم هایی مانند فیس بوک، اینستاگرام، توییتر و دیگران صدها حساب کاربری و مستند جنایات اشغالگران را به بهانه «نقض دستورالعمل های جامعه» یا «ترویج تروریسم» حذف یا مسدود کردند، حتی اگر محتوای آن جنایات جنگی را به طور دقیق مستند کند که توسط سازمان های حقوق بشری تأیید شده است. رسانه های مستقل نیز با محدود کردن دسترسی به آنها یا حذف کامل حساب های کاربری خود هدف قرار گرفتند، در تلاشی آشکار برای ساکت کردن صداهایی که نقض حقوق غیرنظامیان فلسطینی را افشا می کنند.

خودسانسوری داوطلبانه


سرکوب دیجیتال و سرکوب محتوا با پدیده ای از «خودسانسوری داوطلبانه» همراه است که در آن افراد و حتی گروه ها شروع به سانسور خود می کنند، گفتمان سیاسی خود را تعدیل یا ملایم می کنند، به موضوعات نظری کلی روی می آورند و از رویارویی مستقیم با سرمایه داری یا رژیم های اقتدارگرا اجتناب می کنند. 

این به دلیل ترس از اینکه های آنها محدود شود یا از طریق تعلیق حساب مبتنی بر هوش مصنوعی در پلتفرم های دیجیتال با دستگیری یا ترور دیجیتال مواجه شوند، اتفاق می افتد.

این ترس آزادی بیان را تضعیف می کند و به عاملی قدرتمند در تغییر شکل و نظارت بر گفتمان عمومی حتی قبل از اعمال محدودیت های واقعی تبدیل می شود. سلطه ایدئولوژیک سرمایه داری را تقویت می کند، فضای مقاومت دیجیتال را کاهش می دهد و اینترنت را به فضایی خودتنظیمی همسو با منافع قدرت های حاکم تبدیل می کند.

به عنوان مثال، در جریان اعتراضات گسترده در کشورهای مختلف علیه سیاست های سرمایه داری و رژیم های اقتدارگرا، و به طور کلی به درجات مختلف، بسیاری از کاربران متوجه شدند که های آنها حاوی عباراتی مانند «اعتصاب عمومی»، «نافرمانی مدنی»، «انقلاب» یا مستندسازی نقض حقوق بشر بسیار کمتر از حد معمول است. در همین حال، های تحلیلی عمومی در مورد اقتصاد و سیاست به طور مشابه تحت تأثیر قرار نگرفتند. 

در نتیجه، بسیاری از فعالان شروع به اجتناب از اصطلاحاتی کردند که توسط پلتفرم ها به عنوان «آتش افزاین» طبقه بندی می شدند، که منجر به نرم شدن گفتمان عمومی، کاهش برتری انقلابی آن و در نتیجه تضعیف نقش رسانه های اجتماعی به عنوان ابزاری برای بسیج سیاسی و سازماندهی توده ای شد.

فرسایش دموکراسی از طریق هوش مصنوعی

هوش مصنوعی پس از به دست آوردن کنترل بر ذهن و آگاهی انسان از طریق دیجیتالی شدن، از یک ابزار سرمایه داری به حداکثر رساندن سود به ابزاری مرکزی برای تضعیف و حتی تضعیف آنچه از دموکراسی بورژوایی باقی مانده است، به جای حمایت یا پیشبرد آن، تکامل یافته است. 

این امر علیرغم اعتبار محدود سیستم های دموکراتیک در بسیاری از کشورها، جایی که دموکراسی توسط پول سیاسی، قوانین انتخاباتی مغرضانه در خدمت منافع خاص و عوامل دیگر شکل می گیرد، صادق است. 

به جای تشویق مشارکت عمومی آگاهانه در زندگی سیاسی، دیجیتالی شدن و هوش مصنوعی برای تغییر شکل و دستکاری افکار عمومی به نفع منافع طبقه حاکم، تأثیرگذاری بر انتخابات، محدود کردن فضای بحث آزاد، و هدایت گفتمان سیاسی و رسانه ای برای خدمت به قدرت های سرمایه داری مسلط استفاده می شود.

کنترل طبقاتی بر هوش مصنوعی به این معنی است که این فناوری که در ابتدا فرض می شد از شفافیت و دموکراسی حمایت می کند، در واقع برای تولید و ترویج روایت هایی استفاده می شود که از نظم سرمایه داری موجود محافظت می کند. 

تجزیه و تحلیل داده های بزرگ و الگوریتم های هوشمند برای هدایت اطلاعات سیاسی به روش هایی که به نفع نهادهای سرمایه داری، احزاب دست راستی و نئوفاشیست و رژیم های اقتدارگرا است، مورد سوء استفاده قرار می گیرند. این توانایی مردم را برای تصمیم گیری سیاسی بر اساس آگاهی انتقادی واقعی تضعیف می کند.

تحت سرمایه داری، هوش مصنوعی برای توانمندسازی مردم یا تقویت تصمیم گیری آگاهانه و شفاف استفاده نمی شود. در عوض، به عنوان ابزاری برای تحریف حقیقت، بازتولید تبلیغات، و انتشار اطلاعات نادرست رسانه ای عمل می کند که پایه های دموکراسی را بر اساس شفافیت، دسترسی به اطلاعات و کثرت گرایی فکری و سیاسی از بین می برد. محتوای هدفمند بر اساس تجزیه و تحلیل رفتاری ارائه می شود و افکار عمومی مصنوعی ایجاد می کند که هژمونی طبقاتی را تقویت می کند و قطبی شدن سیاسی و اجتماعی را عمیق تر می کند. 

این نه تنها رای دهندگان را گمراه می کند، بلکه خود گفتگوی سیاسی را تغییر می دهد، آن را از محتوا محروم می کند و آن را با تبلیغاتی که از سرمایه داری و ایده های دست راستی آن حمایت می کند، اشباع می کند.

تأثیر هوش مصنوعی فراتر از دستکاری صرف اطلاعات است، بلکه به یک مکانیسم مرکزی در بازتولید قدرت سیاسی تحت سرمایه داری تبدیل می شود. از طریق مدیریت مبارزات انتخاباتی مبتنی بر الگوریتم، طراحی گفتمان سیاسی برای همسویی با منافع سرمایه و تأثیرگذاری بر انتخاب رای دهندگان از طریق هدف گذاری خرد، صداهای مخالفان خنثی می شوند و جایگزین های دموکراتیک چپ-مترقی تضعیف می شوند.

نمونه اخیر مداخله میلیاردر دست راستی ایلان ماسک در انتخابات ۲۰۲۵ آلمان از طریق پلتفرم خود “X” (توییتر سابق) است که در آن او مستقیما از حزب راست افراطی “آلترناتیو برای آلمان” حمایت کرد. این کار با ترویج محتوای تولید شده توسط هوش مصنوعی انجام شد که افکار عمومی را تحت تأثیر قرار داد و قطبی شدن سیاسی را به نفع نیروهای راست افراطی و نئونازی بازتولید کرد.

در چنین چشم اندازی، انتخابات دیگر منعکس کننده اراده عمومی نیست، حتی به طور نسبی. در عوض، آنها به عرصه های درگیری بین قدرت های بزرگ، نیروهای انحصاری و نخبگان مالی تبدیل می شوند که از اینترنت و هوش مصنوعی به عنوان ابزاری برای سلطه سیاسی و ایدئولوژیک استفاده می کنند. این مکانیسم های دموکراتیک و پلورالیسم سیاسی را فاسد می کند، یا صداهای مترقی را تضعیف می کند یا مردم را به سمت آلترناتیوهای کاذب سوق می دهد که در نهایت همان سیستم سرمایه داری را بازتولید می کند، در بهترین حالت، با تغییرات سطحی.

  1. تأثیرات زیست محیطی هوش مصنوعی تحت سرمایه داری

تغییرات اقلیمی و تخریب محیط زیست از برجسته ترین پیامدهای سرمایه داری است. امروزه هوش مصنوعی به ابزار دیگری برای تخلیه منابع کره زمین و تسریع تخریب اکولوژیکی تبدیل شده است. اگرچه این فناوری به عنوان نمادی از پیشرفت به بازار عرضه می شود، اما به گونه ای مدیریت می شود که در خدمت منافع سرمایه داری باشد، بدون تعهد واقعی به حفاظت از محیط زیست یا عدالت اقلیمی.

به عنوان مثال، گزارش ها نشان می دهد که مرکز داده گوگل در آیووا سالانه تقریبا ۳.۳ میلیارد لیتر آب برای خنک کردن سرورهای خود مصرف می کند و منابع آب محلی را در مناطقی که در حال حاضر با کمبود آب شیرین دست و پنجه نرم می کنند، تخلیه می کند.

سیستم های هوش مصنوعی به مراکز داده عظیمی متکی هستند که در بین بزرگترین مصرف کنندگان انرژی جهان قرار دارند. این مراکز به صورت شبانه روزی برای پردازش مجموعه داده های عظیم و الگوریتم های آموزش کار می کنند و مقادیر زیادی برق مصرف می کنند که بیشتر آن هنوز از سوخت های فسیلی تامین می شود.

طبق گزارش آژانس بین المللی انرژی، مراکز داده جهانی در سال ۲۰۲۲ حدود ۲۴۰ تا ۳۴۰ تراوات ساعت برق مصرف کرده اند که معادل ۱ تا ۱.۳ درصد از کل تقاضای جهانی برق یا مصرف انرژی سالانه کشوری مانند آرژانتین است. اگرچه برخی از غول های فناوری ادعا می کنند که در انرژی های تجدیدپذیر سرمایه گذاری می کنند، اما گسترش کنترل نشده سیستم های هوش مصنوعی منجر به انتشار کربن در سطوحی می شود که بسیار بیشتر از مزایای هر راه حل زیست محیطی جزئی ترویج می شود.

تولید سخت افزار هوش مصنوعی همچنین با بهره برداری سرمایه داری از منابع طبیعی گره خورده است. تراشه ها و پردازنده های پیشرفته نیاز به استخراج مقادیر زیادی از مواد معدنی کمیاب دارند که بیشتر آنها از جنوب جهانی تحت شرایط سخت و غیرانسانی کاری می آیند. 

به عنوان مثال، در جمهوری دموکراتیک کنگو، ده ها هزار کارگر، از جمله کودکان، کبالت را برای باتری های لیتیومی بدون تجهیزات ایمنی استخراج می کنند و در معرض فلزات سنگین سمی قرار می گیرند که باعث بیماری های شدید و مزمن می شوند. به طور مشابه، استخراج لیتیوم در شیلی سطح آب های زیرزمینی را در مناطق خشک تا ۶۵ درصد کاهش داده است و باعث خشک شدن زمین های کشاورزی و آواره شدن جوامع محلی از معیشت سنتی خود شده است.

این شیوه ها نه تنها اکوسیستم های محلی را نابود می کنند، بلکه مردم بومی را نیز آواره می کنند، آب و مواد غذایی را آلوده می کنند و جوامع فقیر را در معرض مواد شیمیایی سمی و بیماری ها قرار می دهند، در حالی که شرکت های سرمایه داری بدون پاسخگویی واقعی سودهای هنگفتی ایجاد می کنند.

به عنوان بخشی از چرخه تولید و مصرف سرمایه داری، دستگاه های الکترونیکی به طور مداوم ارتقا می یابند و حجم عظیمی از زباله های الکترونیکی تولید می کنند. بیشتر این زباله ها به طور ایمن بازیافت نمی شوند بلکه به کشورهای در حال توسعه صادر می شوند و در آنجا انباشته می شوند و بلایای زیست محیطی ایجاد می کنند. به عنوان مثال، غنا به یکی از بزرگترین محل های تخلیه زباله های الکترونیکی در جهان تبدیل شده است، جایی که مقادیر زیادی از وسایل الکترونیکی دور ریخته شده برای استخراج فلزات ارزشمند سوزانده می شود، گازهای سمی را آزاد می کند که هوا، آب و خاک را آلوده می کند و به افزایش نرخ سرطان و سایر مشکلات بهداشتی در بین کارگران و ساکنان محلی کمک می کند.

گسترش زیرساخت های هوش مصنوعی مستلزم ساخت مراکز داده و برج های ارتباطی بیشتر، تسریع جنگل زدایی، تخریب اکوسیستم و از دست دادن تنوع زیستی است. هزاران هکتار جنگل در حال حاضر در چندین کشور جنوب جهانی پاکسازی شده است تا راه را برای امکانات فناوری باز کند که منجر به از بین رفتن زیستگاه های حیاتی برای گونه های در معرض خطر می شود.

در حالی که هوش مصنوعی به عنوان ابزاری برای ایجاد محیط های آب و هوایی صنعتی برای افزایش بهره وری در کشاورزی و صنعت ترویج می شود، تغییر اجباری اکوسیستم های طبیعی با استفاده از این فناوری می تواند خطرات زیست محیطی فاجعه باری را به همراه داشته باشد. دستکاری مصنوعی اقلیم و زمین شناسی، بدون رعایت تعادل طبیعی، می تواند منجر به بلایای غیرقابل پیش بینی از جمله تشدید زمین لرزه ها و زمین لغزش شود.

سرمایه داری مدرن، که به دروغ ادعا می کند به محیط زیست اهمیت می دهد، هیچ تفاوتی با اشکال قبلی استثمار ندارد. بیشتر گسترش های تکنولوژیکی، به ویژه در هوش مصنوعی، به قیمت طبیعت تمام می شود و اکوسیستم ها را به روش های مختلف برای خدمت به منافع دولت های قدرتمند و شرکت های انحصاری نابود می کند.

  1.  استفاده از هوش مصنوعی در جنگ و توسعه سلاح های کشنده

فناوری های مدرن هوش مصنوعی نشان می دهد که چگونه این حوزه به جای ترویج صلح و توسعه، به سمت افزایش برتری نظامی هدایت می شود. امروزه، هوش مصنوعی بخش اصلی مسابقه تسلیحاتی جهانی است که برای توسعه سلاح ها و فناوری های هوشمند که قادر به انجام عملیات نظامی بدون دخالت مستقیم انسان هستند، استفاده می شود. 

این تغییر خطر درگیری های مخرب تر و غیرانسانی را افزایش می دهد، نیاز به قضاوت انسان را در استقرار نیروی مرگبار کاهش می دهد، جنگ ها را سریع تر، پیچیده تر و کمتر قابل پیش بینی می کند.

با به حداقل رساندن تصمیم گیری انسان در سناریوهای جنگی، احتمال تشدید درگیری همراه با نقض گسترده قوانین بشردوستانه بین المللی و تلفات بیشتر غیرنظامیان افزایش می یابد. کشتار و نابودی به تصمیمات الگوریتمی تبدیل می شود که بدون بررسی انسانی، اخلاقی یا سیاسی و بدون پاسخگویی اجرا می شود.

ایالات متحده، چین، روسیه و دیگران پهپادهای مجهز به هوش مصنوعی را توسعه داده اند که قادر به تصمیم گیری رزمی مستقل هستند. این سیستم ها را می توان بر اساس تجزیه و تحلیل داده ها برای اصابت به اهداف برنامه ریزی کرد و نگرانی های جدی در مورد خطاهای فاجعه بار ناشی از سوگیری الگوریتمی یا خطاهای برنامه نویسی ایجاد کرد. بسیاری از شرکت های تسلیحاتی اکنون در سیستم های نظامی مبتنی بر هوش مصنوعی سرمایه گذاری می کنند که به عنوان “سلاح های آینده” به بازار عرضه می شوند.

این فناوری ها به میدان های نبرد معمولی محدود نمی شوند، بلکه به جنگ سایبری گسترش می یابند، جایی که از هوش مصنوعی برای حمله به زیرساخت های حیاتی ملی مانند سیستم های مالی، شبکه های انرژی، منابع آب و خدمات ضروری استفاده می شود. این امر تخریب را بزرگ تر می کند، بحران های جهانی را عمیق تر می کند، و رنج غیرنظامیان را بدتر می کند. برخی از کشورها و بازیگران غیردولتی قبلا از هوش مصنوعی در حملات سایبری استفاده کرده اند، همانطور که در خاموشی های گسترده ناشی از حملات مبتنی بر هوش مصنوعی به شبکه های برق و آب دیده می شود.

یکی از هشدار دهنده ترین نمونه های اخیر جنگ مبتنی بر هوش مصنوعی، آخرین حمله اسرائیل به غزه است. ارتش اسرائیل از سیستم های پیشرفته هوش مصنوعی برای انتخاب اهداف و اجرای حملات هوایی به فلسطینی ها استفاده کرد. گزارش های تحقیقی استفاده از سیستمی به نام “اسطوخودوس” را نشان داد، یک ابزار هوش مصنوعی پیشرفته که داده های اطلاعاتی را با سرعت بالا تجزیه و تحلیل می کند و اهداف بمباران را از طریق الگوریتم ها، بدون توجه به ملاحظات بشردوستانه، اولویت بندی می کند.

در جریان این حمله وحشیانه ، بمباران گسترده ساختمان های مسکونی و زیرساخت های غیرنظامی ده ها هزار فلسطینی ، عمدتا زنان و کودکان را به بهانه حمله به “اهداف نظامی” کشت. سازمان های حقوق بشری تأیید کردند که این حملات بخشی از سیاست سیستماتیک کشتار جمعی و پاکسازی قومی از طریق فناوری پیشرفته است.

این جنایات بدون حمایت دولت ها و شرکت های بزرگ فناوری که زیرساخت های دیجیتالی و الگوریتم هایی را که عملیات نظامی اسرائیل را تامین می کنند، امکان پذیر نبود. شرکت هایی مانند گوگل و مایکروسافت قراردادهایی را با ارتش اسرائیل برای ارائه خدمات رایانش ابری و هوش مصنوعی به عنوان بخشی از پروژه نیمبوس امضا کرده اند که برای افزایش توانایی های فنی اسرائیل در نظارت، جاسوسی، هدف گیری و تخریب طراحی شده است.

همه جنگ ها، صرف نظر از ابزارهای مورد استفاده، ظالمانه و غیرانسانی هستند. آنها جوامع را نابود می کنند و جان های بی گناه را به نفع قدرت های مسلط نابود می کنند. در این زمینه، شرکت های بزرگ، که در کنار دولت های سرمایه داری و رژیم های اقتدارگرا کار می کنند، از هوش مصنوعی برای پیشبرد برتری نظامی و سود گسترده از فروش سلاح های هوشمند بهره برداری می کنند. 

از این فناوری ها برای توسعه ابزارهای تخریب استفاده می شود که جهان را بیشتر بی ثبات می کند. هوش مصنوعی در جنگ آن را «دقیقتر» یا «کمتر مضر» نمی کند، بلکه غیرانسانی بودن جنگ را تقویت می کند و تصمیمات مرگ و زندگی را به اعدام های الگوریتمی عاری از اخلاق تبدیل می کند.

*[بر اساس ایده های کتاب من هوش مصنوعی سرمایه داری: چالش هایی برای چپ و جایگزین های احتمالی – فناوری در خدمت سرمایه یا ابزاری برای آزادی؟– به چندین زبان موجود است]

 منابع

  1. مانیفست کمونیست: کارل مارکس و فردریش انگلس
  2. اصلاحات اجتماعی یا انقلاب: رزا لوکزامبورگ
  3. کار مزدی و سرمایه: کارل مارکس
  4. اصول کمونیسم: فردریش انگلس
  5. رضایت ساخت: نوام چامسکی
  6. جورج لوکاچ – اصلاح و آگاهی طبقاتی
  7. مبانی اصلی فکری و سازمانی چپ الکترونیکی/ به سوی چپ علمی دموکراتیک معاصر: رزکار اکراوی
    https://www.ahewar.org/debat/s.asp?aid=730446
  8. سرمایه داری دیجیتال از دیدگاه مارکسیستی: ابراهیم یونس
    https://al-akhbar.com/Capital/364495?utm_source=tw&utm_medium=social&utm_campaign=papr
  9. هوش مصنوعی: آیا تهدیدی برای بشریت است یا سرمایه داری؟
    https://marxy.com/?p=8218
  10. علی عبدالواحد محمد: سرمایه داری ذینفعان
    https://www.ahewar.org/debat/show.art.asp?aid=845862
  11. یونس الغفاری: شبکه های اجتماعی و ارزش افزوده
    https://revsoc.me/technology/46891/
  12. https://www.aljazeera.net/midan/reality/economy/2017/6/28/%D8%B9%D8%B5%D8%B1-%D8%A7%D9%84%D8%B1%D9%88%D8%A8%D9%88%D8%AA%D8%A7%D8%AA-%D9%87%D9%84-%D8%B3%D8%AA%D8%AE%D8%AA%D9%81%D9%8A-%D9%81%D8%B1%D8%B5-%D8%A7%D9%84%D8%B9%D9%85%D9%84
  13. فناوری کور: اسرائیل چگونه از هوش مصنوعی در جنگ غزه و لبنان استفاده کرد؟
  14. گاردین: مایکروسافت حمایت خود را از ارتش اسرائیل در جریان حمله به غزه افزایش
    https://futureuae.com/ar/Mainpage/Item/9708
  15. شرکای نسل کشی: چگونه شرکت های فناوری غربی از ارتش اسرائیل در غزه حمایت کردند؟
    https://www.aljazeera.net/news/2025/1/23
  16. بازاندیشی دیدگاه های مارکسیستی در مورد داده های بزرگ، هوش مصنوعی (AI) و توسعه اقتصادی سرمایه داری
    https://www.sciencedirect.com/science/article/abs/pii/S0040162521000081
  17. مارکس، اتوماسیون و سیاست به رسمیت شناختن در نهادهای اجتماعی
    https://www.tandfonline.com/doi/full/10.1080/03017605.2024.2391619#d1e107

برچسب ها

اين نوشته را در شبکه های اجتماعی به اشتراک بگذاريد

توجه: کامنت هایی که بيشتر از 900 کاراکتر باشند، منتشر نمی‌شوند.
هر کاربر مجاز است در زير هر پست فقط دو ديدگاه ارسال کند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

آگهی