
چون انرژی اتمی، هوش مصنوعی می تواند زندگی انسان را آسانتر کرده و بهبود ببخشد و یا اینکه جامعه ی انسانی را به تدریج یا ناگهانی نابود کند. در فیلم ادیسه ۲۰۰۱، هال کامپیوتر کمی به ما، نافرمانی کامپیوتر را نشان داد، پرواز خیال هنرمند بسیار جلوتر و سریعتر از واقعیت است.
به گفته ی Geoffrey Hinton (هینتون) کانادایی و پدر خوانده ی هوش مصنوعی که الگوریتم یادگیری ماشین (کامپیوتر) را با کمک همکارش John Hopfield به سامان رساند و هوش مصنوعی را به مفهوم امروزه بنیاد نهاد، در آینده، هوش مصنوعی می تواند دو خطر داشته باشد: یکی اینکه از کنترل انسان خارج شود و برای خود، الگوریتم بنویسد (در هر صورت باید الگوریتمهای خود را بنویسد) و عنان خود و انسان را بدست گیرد و دوم اینکه بدست نیروهای ضد انسانی بیفتد و در خدمت ضد بشر قرار بگیرد. برای مثال، شرکت گوگل اول قول داد که اجازه ندهند هوش مصنوعی برای استفاده ی ارتش به کار گرفته شود ولی اخیرا از ترس دولت ترامپ، رای خود را پس گرفت. هینتون که بیشتر متمرکز بر کاربرد هوش مصنوعی با همکاری انسان، برای تحقیقات پزشکی و دارویی و درمان انسانها با استفاده ی مستقیم از آن و تعلیم و تربیت و اینگونه خدمات بوده و هست، به گونه ای، از خطر استفاده ی ضد انسانی هوش مصنوعی در آینده هشدار می دهد. هینتون می گوید که “هر هوش بالاتری می تواند هوش پایین تر را کنترل بکند”، البته اکنون می بینیم که حکومتها با آدمهای بسیار کم هوش تر (اما با امکانات)، چگونه آدمهای باهوش تر را به گروگان می گیرند (ایران مثال خوبی است)، ولی داستان ماشین در مقابل انسان فرق می کند.
هینتون معتقد است که استفاده از هوش مصنوعی در آینده، باید قانونمند شود تا راه سو استفاده از آن بسته شود. او همچنین معتقد است که توسعه و تکمیل هوش مصنوعی باید به گونه ای پیش برود که هرگز نتواند انسان را کنترل بکند. او اضافه می کند که با وضعیت جهان موجود و رقابت کشورهای مختلف برای سبقت گرفتن در توسعه و استفاده از هوش مصنوعی، به نظر می آید که این کشورها بدون هیچ قانون و محدودیتی به ساختن آن مشغولند و در نتیجه چنین محدودیت هایی در نظر گرفته نمی شوند.
در ضمن باید بیاد داشت که هوش مصنوعی هینتون با هوش مصنوعی باز open source یا open AI، متفاوت است، الگوریتمهای هوش مصنوعی باز، باز هستند و هر کسی می توان آنها را ببیند، این همان هوش مصنوعی بازی است که ایلان ماسک آنرا استفاده کرده و به اشتراک گذاشت. مدل یادگیری هوش مصنوعی هینتون با هوش مصنوعی باز بسیار متفاوت است.
چنانچه تاریخ به ما ثابت کرده، می توان پیش بینی کرد که کنترل هوش مصنوعی نیز چون دیگر تکنولوژی های حساس به دست حکومتها و بخصوص حکومتهای قدرتمند می افتد که برای حفظ کنترل و قدرت خود، از بکارگیری آن برای سرکوب انسانها و دیگر دولتها مرزی نمی شناسند. در همین چند ماه ی اخیر، دولت اسرائیل برای بمباران غزه از هوش مصنوعی استفاده کرد و همچنین برای رای دادن به برگزیت Brexit در انگلستان و برای انتخابات ریاست جمهوری اخیر آمریکا برای ترامپ (به گفته ی هینتون، این یک هنوز کاملا ثابت نشده) از هوش مصنوعی استفاده شد. البته هم اکنون، هوش مصنوعی برای خدمات انسانی، از جمله پزشکی و تعلیم و تحقیق، ناقص و محدود، نیز بکار گرفته می شود،
از طرفی، مکتب پسا مدرنیسم معتقد است که حقیقت، ساخته ی وضعیت اجتماعی، فرهنگی و تاریخی و بینش فردی است و یک حقیقت مطلق و جهانی وجود ندارد. همچنین فهم حقیقت خود به به زبان، بافت قدرت، و آداب و رسوم اجتماعی و دیگر فاکتورهای خارج از حقیقت بستگی دارد. این مکتب در برخی کاربردها، از جمله سیاست و عدالت اجتماعی بسیار به نفع زورمندان بوده است. با در نظر گرفتن این تعریف از حقیقت، چه اکنون و چه در آینده، می توان با بازی با داده ها به هوش مصنوعی، هر بار حقیقتی نو آفرید و گاه در مورد موضوعی مشترک در زمان و مکانی مشترک، نتیجه ای کاملا متفاوت و گاه مخالف گرفت.
چه اکنون و چه در آینده، با تحریف تاریخ، می توان حقیقتی نو معرفی کرد و اعتقادات را تغییر داد و همچنین می توان انرژی مبارزاتی مردم را جهت داد و به انحراف کشاند. چندین سال است که با نقشه های دقیق و حساب شده، سپاه سایبری حکومتها و دیگر نیروهای سایبری با مقالات و اسناد دروغین یا دستکاری شده، تاریخ و وقایع کنونی را تحریف کرده و آنها را برای سرکوب و انحراف مبارزات و بدنامی مبارزین به کار می گیرند. برای پیشگیری یا خنثی کردن این تلاشها، اکنون که هنوز هوش مصنوعی در حال شکل گیری و گسترش است، باید هر روز در هر زمینه ی مبارزاتی، حقایق تاریخی (به روایت مبارزان)، را بطور سیستماتیک نوشت و ثبت کرد. باید نوشت، باید بدون سانسور وقایع را همانگونه که بوده اند بدون داوری نوشت و در انبار اسناد ثبت شده افزود. این نوع مبارزه، دراز مدت است با تلاش فراوان، اما ضروری است و بسیار مهم. نمی توان منتظر ماند. هستند مبارزینی که معتقدند اکنون آنچنان مشکلات اضطراری داریم که نه وقت است و نه نیروی مبارزاتی ذخیره که به آینده ای دور (پنج تا ده سال آینده) بپردازیم. اما به جرات می توان گفت که یک فاکتور مهم در شکست مبارزات، نداشتن برنامه و بخصوص برنامه ی طولانی مدت و پیشگیرانه است. مبارزین و بخصوص مبارزین سیاسی، عموما، برنامه و فعالیتهای “عکس العملی” دارند و پس از وقوع حادثه به مبارزه با آن می پردازند. البته که خیلی از اتفاقات قابل پیش بینی نیستند و بر مبارزین ایرادی نیست. ولی در عین حال، خیلی از وقایع نیز تا حدی قابل پیشبینی هستند ولی نیروی سازمان یافته ای وجود ندارد که به تحلیل ژرف بپردازد و بنا بر گوهره ی نیروها و اتفاقات تاریخی، به یک پیش بینی علمی برسد و راه چاره را پیش از حادثه بیندیشد. اما این یکی قابل پیشبینی است.
اکنون هنوز هوش مصنوعی خام و بیشتر یک گردآورنده ی معلومات موجود است که سعی دارد با نتیجه گیری هایی بر اساس داده ها، محصولی نو ارائه بدهد که بیشتر اوقات یا این نتیجه گیریها غلط هستند و یا بیخود و ندرتا مفید. یادگیری منطق و استدلال ماشین هنوز اندر خم یک کوچه است، اما باید پیش بینی کرد که بزودی به آنجا برسد که پیش بینی می شود. باید بیاد داشت که دنیای تکنولوژی همیشه پر از سورپرایز است و اتفاقات پیش بینی نشده! جای شگفتی نخواهد بود که بزودی یک رشد جهشی در هوش مصنوعی اتفاق بیفتد یا اینکه پدیده ای نو، ظهور کند که اساسا هوش مصنوعی را دگرگون کند یا به سطح بالاتری برساند. یا اینکه هم اکنون، علم و تکنولوژی آن موجود است و به دلیلهای امنیتی، حکومت دارنده، اجازه ی همگانی شدن آن را نمی دهد تا مثلا تنها در ارتش یا تاسیسات نظامی خود به کار بگیرد.
گاه جدیدا مقالات بالا بلندی می بینیم با انشایی تر و تمیز و درست، هر پاراگراف به جای خود، پاراگراف اول با مقدمه، اصل موضوع را بیان می کند و پاراگرافهای دیگر از زاویه ای خاص، موضوع اصلی را ساپورت می کنند و پاراگراف آخر تر و تمیز جمع بندی می کند. اما دقت که بکنید، مقاله ی مورد نظر هیچ نکته ی تازه ای را نگفته و بسیار ماشینی به نظر می آید. داستان از این قرار است که چنین مقالاتی با کمک هوش مصنوعی نوشته شده اند حتی به فارسی. و البته نویسندگان صادق هرگز چنین کاری نمی کنند، حداقل الان نه.
هم اکنون، در بکارگیری هوش مصنوعی، می توان پرسش را آنچنان انتخاب کرد و جهت داد که برای یک موضوع خاص، به دلیل سندها و گزارشات ضد و نقیض موجود استفاده شده، کاملا دو نتیجه گیری مختلف گرفت. در آینده که ماشین الگوریتمهای جدید ایجاد می کند، باز هم سندهای موجود (و بعدها به اضافه ی سندهای تازه ایجاد شده بوسیله ی ماشین)، مواد خام ماشین خواهند بود، این فاکت، وظیفه ای در مقابل عدالت خواهان جهان قرار می دهد که هر چه بیشتر از همین الان به ثبت وقایع اجتماعی -تاریخی بپردازند. آن چه می دانیم اینست که ماشین تبلیغاتی حکومتها شبانه روز در کار است و بخش مهمی از حکومت کردن را کارگردانی می کند. این ماشین همیشه مشغول، یک نوع سرکوب پنهان و پیشگیرانه و موثر است و از دیرینه پابرجای.
به راه های نرفته باید رفت (یا به راه های رفته با هدفی متفاوت)، بنویسیم، نه برای امروز و نه برای خود، برای آینده و عدالت و شکستن سانسورهای آینده. صادقانه آنچه را که تجربه کرده ایم بدون در نظر گرفتن شهرت خود و دیگران، به دور از هیاهوی بازار امروز بنویسیم. نه برای قضاوت دیگران، برای عدالت جهانی و گذشته و امروز و آینده بنویسم. البته به هیچ وجه ثبت کردن و نوشتن جای مبارزه ی امروزی و سازمان داده را نمی گیرد، جای تحلیل را نیز نمی گیرد، بلکه اینها همه مکمل یکدیگر هستند، یکی برای امروز ، یکی برای آینده. ما نه تنها شاهدان، بلکه شهادت تاریخیم ، پیش از آنکه اتفاق بیفتد، نترسیم و صادقانه بنویسیم!
——————-
باید گفت که دیگر لازم نیست، رژیم جمهوری اسلامی زحمت بکشد و سنگ گور شاملو را بشکند، چرا که بروید و از deepseek بپرسید شعری از شاملو را با شما به اشتراک بگذارد، چند شعر ساده، بازاری و مبتذل را به اسم شاملو خواهید دید که خشمتان را شدیدا بر می افروزد.
آتلانتا، ۵/۶/۲۰۲۵
مرضیه شاه بزاز
یک پاسخ
مقاله ای کوتاه با محتوا
ادامه!