اشاره:
از این به بعد
مقالات جالب و پیش بینانه در مورد هوش مصنوعی و تاثیر آنها بر کار و زندگی آدمها را اینجا می گذارم.
اولین مقاله درمورد کتابیست در مورد بارآوری کار که حدود چند سال پیش درباره آن تحقیق کردم و تقریبا مسیر زندگی من را تا حدی عوض کرد.
هدف این نوشته بررسی موضوع بارآوری کار است و اگر به دیگر موضوعات اشاره میشود تنها برای روشنترشدن مسئله است. مولدبودن کار ازجمله مسائلی است که در این بحث نقش کلیدی دارد، ولی پرداختن به آن مبحث خاص خود را میطلبد، و درنتیجه بهطورمستقیم به آن نمیپردازیم. ولی این به آن معنا نیست که اهمیت آن را در نظر نگیریم.
بارآوری کار ،پیشگفتار
و اراجاعی به مقاله کارل بندیکت فری و مایک آ اوسیورن درباره اوتوماتیک شدن کارها و از دست رفتن مشاغل با این توضیح:
از هر دو شغل یکی طی ٢۰ سال اتوماتیک میشود. Vartannat Jobb automatiseras inom 20 år
تحقیقی که توسط محققین دانشگاه آکسفورد به سفارش بنیاد تحقیقات استراتژیک SSF(Stiftelsen För Strategisk Forskning) در سوئد انجام شده است.
این تحقیق توسط کارل بندیک فری Carl Benedikt Frey و مایکل آ اوسبورن Michael A. Osborne انجام شده است. این محققین به این نتیجه رسیدهاند که شغلهایی که با انسانها سر و کار دارند، یعنی فقط در ارتباط با انسانها جهت قانع کردن، دادن کمکهای فکری و یا در حیطهی کارهای ذوقی و احساسی و یا ابتکار عمل و ابداع هستند امکان جایگزینی آنها با ماشین نیست. مثلاً استادکار جنگل کاری، کشیش و آموزگاران متخصص، از جمله کسانی هستند که حداقل ریسک برای جایگزینی با ماشین را دارند. در گزارش آمده است که «یک پیش بینی احتیاط آمیز برای آینده میتواند این باشد که یک موج تکنیک [یورش تکنیکی] میتواند به این ختم شود که فشار زیادی بر دستمزدها و اشتغال در شغلهایی که در حوزه خطر قرار دارند وارد شود.» بیکار سازی یا از دست دادن کار همواره یکی از پیامدهای رشد تکنولوژی بوده است و هر چه این تکنولوژی بیشتر پیشرفت کند و در عین حال کار را بارآورتر سازد، نیروی کار کمتری را نیاز دارد زیرا ماشین همواره میتواند جای انسانها را در تولید پر کند. همانگونه که در این تحقیق اشاره شده است اگر قبل از انقلاب صنعتی «نیروی کار انسانی در صورتی که با آموزش یا توانایی کار دستی یا حرفهیی کامل نمیشد، ارزشی نداشت. با انقلاب صنعتی صنعت به آن حدی رشد کرد که کار به هدایت و کنترل و کمک انسانی احتیاج داشت که به آموزش و خلاقیت خاصی نیازی نداشت. نیاز به کارگر تا آن حدی رشد کرد که کار میتوانست به اولین و ارجحترین منبع ارزش تبدیل شود بدون آن که اشتغال کامل را تهدید کند…. طی دهههای اخیر گاهی رشد تکنیک این وضعیت را تغییر داده است. ماشینها از پس کارهای بیشتری بر میآیند که قبلاً برای آن کارها به انسان نیاز بود، ضمن آن که کامپیوترها بارآوری کار را برای آن دسته از گروههای کاری که آموزشهای بالا دارند، افزایش داده اند.» این رشد، شتاب زیادی دارد به حدی که تا ده سال پیش به نظر میرسید که بسیاری کارها نمیتوانند کامپیوتری شود و یا به سخن دیگر، از کنترل انسانها خارج شوند، به عنوان نمونه راندن اتومبیل ولی همانگونه که میدانیم امروزه این عملی شده است و به زودی اتومبیلها و حتی اتوبوسهای بدون راننده انسانی در راههای عمومی به حرکت در خواهند آمد. «اولیای امور دفاعی امریکا Darpa طی دههی اخیر مسابقاتی را ترتیب داده است که به کسانی که اتومبیلهای بدون راننده را بسازند جوایزی تعلق میگیرد. امروزه این پروژه عملی شده است.»
مقالهای منتشر شده در سال ۲۰۱۳ به نام «احتمال اتوماسیون مشاغل در آینده»
که پیشبینی میکند:
- ۴۷% از مشاغل در ایالات متحده در معرض خطر اتوماسیون بالا در دهه های آینده هستند.
- مشاغل با مهارت های روتین و قابل برنامه ریزی بیشتر در معرض خطر هستند.
- مشاغلی که به خلاقیت، هوش اجتماعی و مهارت های حل مسئله نیاز دارند، اتوماسیون کمتری دارند.
- اتوماسیون می تواند منجر به از دست دادن شغل در برخی از بخش ها شود، اما همچنین می تواند مشاغل جدیدی در سایر بخش ها ایجاد کند.
- سیاست گذاران باید برای کمک به کارگران برای سازگاری با دنیای کار در حال تغییر، آموزش و پرورش و برنامه های حمایتی را ارائه دهند.
- این مقاله یکی از اولین مطالعاتی بود که به طور سیستماتیک احتمال اتوماسیون مشاغل را بررسی کرد.
- یافته های این مقاله بحث های زیادی را در مورد آینده کار و تأثیر اتوماسیون بر مشاغل ایجاد کرد.
- این مقاله هنوز هم به طور گسترده توسط محققان، سیاست گذاران و رهبران مشاغل مورد استناد قرار می گیرد.
حالا مقاله از سمت نویسندگان مجددا و پس از انقلاب هوش مصنوعی در دو سال اخیر- ارزیابی شده:
هوش مصنوعی تولیدکننده و آیندهی کار: یک بازنگری
مقدمه

همانند امروز، اوایل دهه ۲۰۱۰ نیز دوران هیجان برای شگفتیهای تکنولوژی جدید بود. دنیا از بدترین بحران مالی بعد از رکود بزرگ (Great Depression) جان سالم به در برده بود و با وجود کسالت مالی باقیمانده، به نظر میرسید آمریکا در آستانهی جهش بهرهوری (productivity boom) قرار دارد. هوش مصنوعی (AI) که مدتها بهعنوان حوزهای عقبافتاده در دانشگاهها شناخته میشد، بالاخره به ثمر نشست. در سال ۲۰۱۱، یک سیستم کامپیوتری پاسخدهنده به سوال به نام «هوش مصنوعی واتسون» (IBM Watson) قهرمان جهان در مسابقهی «جئوپاردی» (Jeopardy) را شکست داد. یادگیری ماشینی (machine learning) – زیرمجموعهای از هوش مصنوعی – حوزه آنچه رایانهها میتوانستند انجام دهند را بیشتر گسترش داد. در سال ۲۰۱۲، یک تیم یادگیری ماشینی از گوگل یک شبکهی عصبی عمیق (deep neural network) را آموزش داد که بدون اینکه هرگز به آن گفته شود گربه چیست، بهطور مستقل قادر به تشخیص ویدیوهای گربه در یوتیوب شد.
دیگر روزهایی که یک برنامهنویس کامپیوتر برای هدایت اعمال یک ماشین در هر شرایطی نیاز به نوشتن قوانین صریح داشت، گذشته بود. اکنون رایانهها میتوانستند با بهرهگیری از ردپای دادههایی که تعداد روزافزون کاربران آنلاین به جا میگذاشتند، قوانین را استنتاج کنند. این پدیده با توسعهی وسایل نقلیهی خودران به وضوح قابل مشاهده بود. هیچ برنامهنویسی نمیتوانست پیشبینی کند که یک انسان راننده در ترافیک شهری با چه موقعیتی روبرو میشود و حتی نمیتوانست این موقعیتها را در یک دنبالهی دستورات «اگر-پس-انجام بده» (If-Then-Do) ثبت کند. در عوض، وسایل نقلیهی خودران با جمعآوری حجم عظیمی از دادهها دربارهی اعمال رانندگان در ترافیک شهری برای پیشبینی اینکه انسانها در هر موقعیتی چه کاری انجام میدهند، پیشرفت کردند.
در سال ۲۰۱۳، ما مقالهای منتشر کردیم که تخمین میزد ۴۷ درصد از مشاغل در معرض پیشرفتهای اخیر در یادگیری ماشینی و رباتیک پیشرفته قرار دارند (۲). هنوز مقالهی «شبکههای مولدِ خصمآمیز» (Generative Adversarial Networks) اثر ایان گودفلو (Ian Goodfellow) و همکارانش منتشر نشده بود. با این حال، برآوردهای ما چشماندازی اجمالی را به عصر هوش مصنوعی تولیدکننده (Generative AI) ارائه میکرد: درمییافتیم که مدلینگ لباس یکی از مشاغل در معرض خطر است. تنها چند سال بعد، مدلهای دیجیتال لباس به صورت انبوه تولید میشدند (۳). با این وجود، در مجموع ما بر این باور قاطع بودیم که – در نبود جهشهای عمدهی پیشبینینشده – وظایفی که نیازمند خلاقیت، هوش اجتماعی و کار دستی بدون ساختار هستند، همچنان پناهگاههای امنی برای کارگران انسانی باقی خواهند ماند. مشاغل روزنامهنگاران، دانشمندان، مهندسان نرمافزار، مدیران هنری و معماران همگی در معرض خطر کمی برای خودکار شدن قرار داشتند.
یک دهه بعد، اکنون مدلهای زبان بزرگ (Large Language Models) مانند GPT-4 میتوانند، ، به طرز حیرتانگیزی شبیه به انسان، به سؤالات پاسخ دهند و مقاله بنویسند. مولدهای تصویر مانند DALL-E 2 میتوانند عبارات متنی را به تصاویر جدید تبدیل کنند و کار خلاقانهی طراحان و مدیران تبلیغاتی را به تصویر بکشند، به غیر از CoPilot محصول گیتهاب، یک «برنامهنویس زوجی» (pair programmer) قدرتمند با هوش مصنوعی که قادر به نوشتن کد است.
تعداد حوزههایی که به نظر میرسد هوش مصنوعی در آنها به تسلط در سطح انسان دست یافته است، خیرهکننده است. OpenAI، یک آزمایشگاه تحقیقاتی هوش مصنوعی آمریکایی، گزارش میدهد که LLM آنها در یک آزمون وکالت شبیهسازیشده، بخش ریاضی آزمون SAT و دورهی آموزشی مقدماتی ساقی- تست کننده شراب- (sommelier) با نمرهای در حدود ۱۰ درصد برتر از شرکتکنندگان در آزمون قبول شده است (۴). تنها در چند ماه، با حرکت دنیا از GPT-3.5 به GPT-4، هوش مصنوعی در حل مسائل فیزیک دانشگاه از جایگاه سی و نهم به نود و ششمین صدک عملکرد در سطح انسان جهش کرد (۵). در حالی که چنین نتایج آزمونی ممکن است بازتاب پاسخ «طوطیوار» (parroting) LLM به سوالات رایج امتحانی باشد که در مجموعههای آموزشی آنها یافت میشود، این سوال را مطرح میشود که: آیا ما دامنهی خودکارسازی در آیندهی نزدیک را دستِکم نگرفتهایم؟ (۶)
در ادامه، ما بازنگری در تقسیم کار بین انسانها و رایانهها در عصر هوش مصنوعی ارائه میدهیم. در همین راستا، بررسی میکنیم که آیا هوش مصنوعی تولیدکننده، با تهدید به واژگون کردن جایگاه ویژه انسانها در ۱) کار خلاقانه، ۲) ویژگیهای اجتماعی و ۳) فرایندهای بدون ساختار، قوانین بازی را تغییر داده است؟ در پایان با بحث در مورد پیامدهای این روندهای اخیر فناوری در بازار کار، نتیجهگیری خود را ارائه میکنیم.
از زمانی که جوزف وایزنهوم از موسسه فناوری ماساچوست (MIT) در سال ۱۹۶۶ الیزا (ELIZA) را راهاندازی کرد، دانشمندان کامپیوتر در تلاش برای ساخت ماشینهای اجتماعی بودهاند. الیزا که به نام الیزا دولیتل – شخصیت اصلی نمایشنامهی پیگمالیون اثر جرج برنارد شاو (۱۹۱۳) – نامگذاری شده بود، اولین الگوریتمی بود که میتوانست گفتگویی تا حدودی قابل قبول بین انسان و ماشین را تسهیل کند. الیز با الهام از رواندرمانی راجرز، ورودیای را میگرفت و به صورت یک سوال بازنویسی میکرد: اگر به الیز در مورد خیانت یک دوست گفته میشد، پاسخ میداد: «چرا احساس خیانت میکنی؟». در واقع، الیز هرگز در آزمون تقلید (imitation game) – آزمونی که توسط آلن تورینگ در سال ۱۹۵۰ طراحی شد و به طور گسترده به عنوان معیاری برای هوش مصنوعی در نظر گرفته میشود – موفق نمیشد. اگر یک الگوریتم بتواند یک فرد را متقاعد کند که با فرد دیگری صحبت میکند، بیشک باید چیزی را بفهمد؟ بر اساس این اصل، مسابقات آزمون تورینگ، که در آن داوران وظیفه دارند بین انسان و الگوریتمهایی که هویتشان ناشناخته است تمایز قائل شوند، به یک استاندارد رایج برای اندازهگیری پیشرفت در هوش مصنوعی تبدیل شد.
با این حال، نیم قرن بعد، چتباتها (chatbots) همچنان ناامیدکننده باقی ماندند. درست است، در سال ۲۰۱۲، در صدمین سالگرد تولد احتمالی آلن تورینگ، یک ربات به نام «یوجین گوستمن» (Eugene Goostman) موفق شد ۳۳ درصد از داوران انسان را متقاعد کند که انسان است اما این ربات با وانمود کردن به اینکه یک پسر اوکراینی با مهارتهای ابتدایی زبان و دانش فرهنگ انگلیسی است، موفق شد. این حادثه به جای آنکه جهشی در هوش مصنوعی باشد، بر نقصهای آزمون تورینگ تأکید کرد – گوستمن در تظاهر به هوشمندی مهارت داشت، نه بیشتر. چنین پیشرفت محدودی، حتی در برقراری ارتباط متنی اولیه، ما را به این نتیجه رساند که مشاغل نیازمند هوش اجتماعی در سطح انسان همچنان از خودکارسازی در امان هستند – هرچند اشاره کردیم که برای اینکه یک رایانه بتواند شوخی ظریفی بسازد، در اصل یک پایگاه دادهی عظیم از جوکهای ساختهشدهی انسان و روشهای ارزیابی عملکرد الگوریتم کفایت میکرد.
اکنون ما، هم از پایگاه دادههای کافی و هم از روشهای ارزیابی برخورداریم. مدلهای زبانی بزرگ (LLMs) امروزی با آموزش بر روی حجم عظیمی از دادهها از کتابها، مقالات و وبسایتهایی که خواندن آنها هزاران برابر عمر یک انسان طول میکشد، الگوها و روابط بین کلمات و عبارات را میآموزند و به آنها این امکان را میدهند که بر اساس متن، کلمه بعدی یک جمله را پیشبینی کنند. این پیشرفت، همراه با رویکردهای نوآورانه برای ارزیابی خروجی هوش مصنوعی با استفاده از یادگیری تقویتی (reinforcement learning) – تکنیکی که در آن یک عامل (agent) با تعامل با محیط، دریافت بازخورد به شکل پاداش و تنظیم اعمال خود برای به حداکثر رساندن آن پاداشها یاد میگیرد – برای هدایت سیستم به سمت درست به کار رفته و نتایج خیره کنندهای به بار آورده است. درخواست چتجیپیتی (ChatGPT) زیر را توسط یک کاربر در نظر بگیرید: «فیلمنامهی کامل یک صحنه از سریال ساینفیلد (Seinfeld) را بنویسید که در آن جری (Jerry) نیاز به یادگیری الگوریتم مرتبسازی حبابی (bubble sort) دارد.» برای دستیابی به این هدف، هوش مصنوعی از آموزش خود – مجموعهی عظیمی از متون انسانی که به احتمال زیاد شامل فیلمنامهها نیز میشد – برای شناسایی «ویژگیهای» حیاتی یک «فیلمنامهی ساینفیلد» استفاده کرد، به طوری که هوش مصنوعی در پاسخ خود، احتمالات بیشتری را به کلماتی که در فیلمنامههای سیتکام پیدا میکند، اختصاص میدهد. پاسخ نهایی چتجیپیتی صحنهای را در کافه مونک (Monk’s Café) توصیف کرد که در آن جری از سختی یادگیری الگوریتم مرتبسازی حبابی شکایت میکند. هوش مصنوعی حتی یک شوخی هم به وجود آورد: در پاسخ به حرف جرج که «حتی یک میمون» هم میتواند الگوریتم مرتبسازی حبابی را یاد بگیرد، جری پاسخ میدهد: «خب، من یک میمون نیستم، من یک کمدین هستم.»
ماشینهای اجتماعی
اگرچه هوش مصنوعی شاید به معنای پایان کار کمدینها یا فیلمنامهنویسان نباشد، نسل جدید چتباتها (chatbots) میتوانند بسیاری از نقشهایی را برعهده بگیرند که پیش از این نیازمند هوش اجتماعی انسانی بود. آنها میتوانند زبان مذاکرهکنندگان، کارگزاران املاک و مستغلات و کارگزاران بیمه را برای شناسایی کلمات و عبارات متقاعدکننده تجزیه و تحلیل کنند که منجر به نرخ تبدیل (conversion rate) بالاتری میشود. در همین حال، سیستمهای تشخیص چهره میتوانند احساسات انسان را از حالات چهره تشخیص دهند، درست مانند دستیارهای صوتی که میتوانند الگوهای گفتار و لحن انسان را تشخیص دهند و به آنها پاسخ دهند. در نتیجه، همانطور که در مقاله ۲۰۱۳ ما اشاره شد، مشاغل بازاریابهای تلفنی در بین مشاغلی قرار دارند که بیشترین خطر خودکار شدن را دارند.
هوش ماشینی فراتر از ارتباط مبتنی بر متن عمل میکند. ایجاد «دیپفیک» (deepfakes) از رهبران بهویژه متقاعدکنندهای مانند استیو جابز برای فروش هر چیزی، از آیفون گرفته تا کرم اصلاح، هم اکنون امکانپذیر است. فرض کنید متاورس (Metaverse) هرگز محقق نشود. تصور فروشهای آنلاین پرانرژی آسان است، زیرا مصرفکنندهی تنها و انسانی توسط دوستان آواتاری احاطه شده است که دائماً آنها را برای خرید محصولات ترغیب میکنند. درست مانند اینکه اگر همسایهتان یک بیامو بخرد، شما بیشتر تمایل به خرید آن پیدا میکنید، چنین «دوستیهای» آواتاری به عنوان محتملترین مدل کسبوکار برای متاورس به نظر میرسد. در این دنیا، واسطهی انسانی خودکار خواهد شد. حتی خارج از متاورس، مفهوم اساسی صادق است: شرکتهایی مانند والمارت از هوش مصنوعی برای فعالیتهای تجاری اجتماعی مانند مذاکره در مورد قیمت با فروشندگان استفاده میکنند. (۹)
با این حال، گلوگاههای کلیدی (bottlenecks) در خودکارسازی کارهای اجتماعی همچنان وجود دارد. تعاملات حضوری همچنان ارزشمند هستند و به راحتی قابل جایگزینی نیستند، زیرا مدلهای زبان بزرگ (LLMs) بدن ندارند. در واقع، در دنیایی که هوش مصنوعی در فضای مجازی برتری مییابد، ارتباط حضوری به طور فزایندهای یک مهارت ارزشمند در مشاغل مدیریتی، حرفهای و روبرو با مشتری خواهد بود. افرادی که قادر به ایجاد حضور فیزیکی قوی و برقراری روابط رودررو باشند که در آن دیگران را ترغیب و متقاعد کنند، در عصر هوش مصنوعی موفق خواهند شد. اگر نامههای عاشقانه نوشتهشده توسط هوش مصنوعی شما دقیقاً مانند نامههای هر کس دیگری خوانده شود، بهتر است در قرار اول عملکرد خوبی داشته باشید.
مشاغل اجتماعی را در نظر بگیرید که در آنها متقاعدسازی اغلب حیاتی است. طبق تحقیقات اخیر، برخی از پزشکان در متقاعد کردن بیماران خود برای مصرف داروهای نجاتدهنده بسیار موفقتر از دیگران هستند. (۱۰) به احتمال زیاد، این استعداد با اعتمادی که از طریق روابط شخصی شکل میگیرد، تقویت میشود. صنعت سرمایهگذاری جسورانه (venture capital) نیز به طور مشابه تحت تأثیر تعامل انسانی قرار میگیرد. هنگامی که این صنعت در طول همهگیری به دورکاری روی آورد، سرمایهگذاران برای جبران از دست دادن اطلاعاتی که معمولاً از طریق جلسات حضوری به اشتراک گذاشته میشد، به دنبال استفاده از شبکههای موجود خود و همکاری با شرکایی بودند که سابقهی همکاری قبلی با آنها داشتند. (۱۱) اهمیت اعتماد انسانی تنها با عملکرد مدلهای زبان بزرگ (LLMs) تقویت میشود، همانطور که فیلمنامهی سریال ساینفیلد تولیدشده توسط هوش مصنوعی به طور واضح نشان میدهد: هنگامی که Elaine به گارسونی که رد میشود، سالاد مرغ سفارش میدهد، به دلایل نامعلومی با «خندهی تماشاگران» روبرو میشود. (۱۲) چتجیپیتی بدون درک عمیق طنز، آنچه باید یک فیلمنامهی سیتکام به نظر برسد را کدگذاری کرده است. این ابزار صرفاً با یادگیری تقویتی از بازخورد انسانی برای پاداش دادن به صحبت کردن شبیه انسان، نوشتههای موجود انسان را بازپیکربندی و تنظیم میکند.
نتیجهی این رویکرد تنها عملکرد ناقص نیست. مدلهای زبانی بزرگ مستعد توهمزدن (hallucinations) – جعل محتوا و حتی منابع – هستند و حتی به عنوان «خارج شدن از مسیر» (going off the rails) نیز در نظر گرفته میشوند. هوش مصنوعی بارد (Bard) محصول گوگل در اولین ویدیوی نمایشی خود به اشتباه ادعا کرد که تلسکوپ فضایی جیمز وب «اولین عکسها را از سیارهای خارج از منظومهی شمسی خود ما گرفت» – خطایی که منجر به کاهش چشمگیر قیمت سهام شرکت مادر گوگل، یعنی آلفابت شد. (۱۳) شاید نگرانکنندهتر اینکه، موتور جستجوی جدید مایکروسافت با هوش مصنوعی – که از GPT-4 شرکت OpenAI استفاده میکند – لیست بلندبالایی از رفتارهای هشداردهنده از خود نشان داد، از تلاش برای متقاعد کردن یک گزارشگر نیویورکتایمز برای پایان دادن به ازدواجش تا اعلام برخی از کاربران بهعنوان «دشمنان» خود. (۱۴) بدتر از آن، چتجیپیتی به اشتباه یک استاد حقوق را در یک پروندهی آزار جنسی متهم کرد، به نظر میرسد دلیل این امر سوءتفاهم ذرباره وابستگیهای آماری اما بیاهمیت بین قطعات نامرتبط متن است.
بسیاری از این مشکلات به سادگی با آموزش مدلهای حتی بزرگتر حل نخواهند شد – راهحلهای سریعی وجود ندارد. با این حال، ممکن است محدودهی بالای قابلیتهای LLMها خیلی هم از مدلهای فعلی فاصله نداشته باشد. از یک طرف، با توجه به حجم دادهای که LLMها قبلاً روی آنها آموزش دیدهاند، مشخص نیست که مجموعههای آموزشی بتوانند چندین برابر بزرگتر شوند. همچنین بدیهی نیست که تعداد رایانههای اختصاصیافته به آموزش LLMها به طور قابل توجهی از تعداد فعلی بیشتر شود. ما به قانون مور (Moore’s law) عادت کردهایم – اینکه تعداد ترانزیستورها در یک مدار مجتمع (IC) تقریباً هر دو سال یکبار دو برابر میشود – اما بسیاری انتظار دارند که این روند به دلیل محدودیتهای فیزیکی تا حدود سال ۲۰۲۵ پایان یابد. آموزش LLMها نیز بسیار پرهزینه است (هزینهی آموزش GPT-4 بیش از ۱۰۰ میلیون دلار بود) و با مدلهای کسبوکار اثباتنشده، مشخص نیست که چه تعداد از شرکتها برای انجام چنین سرمایهگذاریهایی در آینده مشتاق باشند.
با این وجود، به نظر بعید میرسد که در آیندهی نزدیک، شرکتها بخواهند روابط دیرینهی خود با مشتریان را به هوش مصنوعیای که به طور مرتب توهم میزند (hallucinating) بسپارند. به عنوان مثال، آمازون برای برندهای پیشرو مانند Nestlé SA و Procter & Gamble Co. یک مدیر حساب انسانی اختصاصی دارد، اما از هوش مصنوعی برای مدیریت قراردادهای کوچکتر که ممکن است در غیر این صورت ارزش صرف زمان را نداشته باشند، استفاده میکند. (۱۵) به عنوان یک قاعده کلی، هر چه یک رابطه بیشتر معاملاتی (transactional) باشد، بیشتر مستعد خودکار شدن است. با نگاه به آینده، انتظار داریم که بسیاری از مشاغل که شامل ارتباط حضوری نمیباشند – مانند بازاریابهای تلفنی، نمایندگان مسافرتی و اپراتورهای مرکز تماس – از بین بروند. اما، بدون جهشهای قابل توجه، روابط دیرینهای که از تعامل حضوری بهره میبرند، در قلمرو انسانها باقی خواهند ماند.
خودکارسازی خلاقیت
با توجه به نیاز به خلاقیت، بعید است که هوش مصنوعی در آیندهی قابل پیشبینی به طور کامل جایگزین ارتباط انسانی شود. دههها پیش، الگوریتمهایی وجود داشتند که کارهایی را تولید میکردند که میتوان آنها را «خلاقانه» نامید. از دههی ۱۹۷۰، برنامهی طراحی AARON هزاران طرح خطی تولید کرد که بعداً در گالریهای سراسر جهان به نمایش درآمد. در دههی ۲۰۰۰، نرمافزار EMI دیوید کوپ (David Cope) قبلاً در حال آهنگسازی در سبکهای مختلف بود و ترکیبات ناآشنایی از ایدههای آشنا ایجاد میکرد. هوش مصنوعی تولیدکنندهی امروزی، مانند EMI، اساساً ایدهها و آثار موجودی را که احساسات انسانی را به روشهای ناآشنا برمیانگیزد، ترکیب میکند. اخیراً آهنگی تولیدشده توسط هوش مصنوعی که شبیهسازی رپخوانی درآ Drake و The Weeknd بود، به صورت ویروسی درآمده است. (۱۶) نوامبر گذشته، یک توسعهدهندهی نرمافزار از ChatGPT جدیداً عرضهشدهی OpenAI دستورالعملهایی را با لحن کتاب مقدس King James Bible، برای خارج کردن ساندویچ کره بادامزمینی از یک دستگاه VCR درخواست کرد. چتبات LLM با این متن پاسخ داد: «و او به خداوند فریاد زد و گفت: ای خداوند، چگونه میتوانم این ساندویچ را از دستگاه VCR خود بیرون بیاورم، زیرا گیر کرده است و تکان نمیخورد؟» به همراه شش پاراگراف خیره کنندهی دیگر. (۱۷) گرچه نویسندگی تأثیرگذار ممکن است باعث شود مو به تن شما سیخ شود، ChatGPT برای حل چالشهایی که برای آن در نظر گرفته شده بود، ایدههای اصلی ارائه نکرد. در نهایت، این چتبات فروکردن چاقو بین ساندویچ و دستگاه VCR را پیشنهاد میکند – راهحلی که حتی یک کودک نوپا، که احتمالاً ساندویچ را با دست بیرون میکشید، آن را معیوب میداند. بدیهی است که ChatGPT درک مفهومی از نوشتهای که تولید میکند ندارد.
سیستمهای هوش مصنوعی تولیدکننده با موفقیت فوقالعادهای موسیقی یا متن مرتبط را بر اساس یک درخواست مشخص بازآرایی و ترکیب میکنند. اما دستور دادن به یک الگوریتم برای تولید صدای Drake و The Weeknd به خلاقیت شگفتانگیزی نیاز ندارد. ترکیب دوبارهی موتسارت و شوبرت، موسیقی به سبک آرو پرت (Arvo Pärt) را تولید نمیکند؛ به همین ترتیب، دستور دادن به هوش مصنوعی برای تولید ترکیبی از نقاشیهای امپرسیونیستی، منجر به جهش جسورانهای به هنر مفهومی جدید نمیشود. برای مثال، در حالی که نمیدانیم مارسل دوشان (Marcel Duchamp) چگونه به ایدهی «فواره» – یک لگن چینی توالت که از یک فروشگاه محلی لولهکشی خریداری شده و به عنوان مجسمه به نمایش گذاشته شده است – رسید، مطمئناً با تجزیه و تحلیل مجموعهای از نقاشیهای امپرسیونیستی نبوده است. دوشان لگنهای چینی توالت را در دنیای واقعی دیده بود و فرم هنریای که اختراع کرد، آنها را عمداً در نوری کاملاً متفاوت قرار داد.
همانطور که اگر الگوریتمها در دنیای واقعی تعامل نداشته باشند، دادههایی که روی آنها آموزش دیدهاند در مقایسه با تجربیات انسانی محدود خواهند بود. برای مثال، اگرچه مردم دائماً عکس میگیرند، اما تصاویر اندکی از افرادی که به صورت آنلاین عکس میگیرند وجود دارد. اینکه آیا برای درک دنیا به بدن نیاز است، همانطور که برخی از پژوهشگران استدلال میکنند، مطمئناً مورد مناقشه است، اما محدودیتهای یادگیری از کتاب برای همه ما شناخته شده است. (۱۸)
مهمتر از همه، حتی اگر الگوریتمها بتوانند دنیای واقعی را مانند انسانها تجربه کنند، دوشان چه نوع دستوری برای تولید «فواره»ی خود میداد؟ در حالی که ترکیبات منحصر به فرد از سبکهای از پیش موجود ممکن است ارزش تجاری قابل توجهی در موسیقی، فیلم یا طراحی داخلی ایجاد کند، اما به احتمال زیاد باعث میشود ما به جای ایجاد پیشرفتهای اساسی، بر روی تنظیم ایدههای موجود تمرکز کنیم. در واقع، یک آزمایش crowdsourcing اخیر که انسانها را در مقابل هوش مصنوعی قرار داد، نشان داد که در حالی که این الگوریتم راهحلهایی با ارزش مالی بالقوه بالا ارائه میکرد، این راهحلها به طور کلی از راهحلهای ارائه شده توسط همتایان انسانیشان کمتر بدیع بودند. (۱۹) برای دستیابی به پیشرفتهای بنیادی، تعریف خروجی مطلوب بسیار دشوارتر است. تصادفی نیست که هوش مصنوعی در کارهایی با هدف بهینهسازی شناختهشده، مانند امتیاز در یک بازی ویدیویی، عملکرد بهتری دارد. با این حال، اگر هدف تولید چیزی کاملاً جدید باشد، برای چه چیزی بهینهسازی میکنید؟
بازی تختهای استراتژیک Go را در نظر بگیرید، جایی که تابع پاداش (reward function) نسبتاً ساده است. در اینجا، هوش مصنوعی در سال ۲۰۱۶ پیروز شد و قهرمان Go جهان، لی سئول (Lee Sedol) را در یک مسابقه پنج بازی با نتیجهی چهار بر یک شکست داد و در عین حال حرکات جدیدی را نیز ارائه کرد. سئول پس از آن بازنشسته شد و گفت: «حتی اگر من شماره یک شوم… یک وجودی وجود دارد که شکستناپذیر است.» اما امسال، انسانها بازگشتی شگفتانگیز و غیرمنتظره داشتند. همانطور که مشخص شد، هوش مصنوعی مبتنی بر یادگیری عمیق (deep learning) تمام مفاهیمی را که انسانها استفاده میکنند، مانند اهمیت گروههای مهره در Go را درک نمیکند. یک آماتور انسان با بهرهگیری از تاکتیکهای جدیدی که هوش مصنوعی قبلاً در آموزش در معرض آنها قرار نگرفته بود، توانست هوش مصنوعی را به طور قانعکنندهای شکست دهد، هرچند با کمک رایانه.
این به این معنی است که امروز ما هرگز نمیتوانیم کاملاً مطمئن باشیم که آیا هوش مصنوعی را میتوان در شرایط جدید، مانند تغییر تاکتیک، که عنصری مهم در خلاقیت انسانی است، به طور قابل اعتمادی استفاده کرد.
بنابراین، به نظر میرسد که پیشرفتهای تدریجی از طریق تنظیمات الگوریتمی، مجموعه دادههای گستردهتر و پارامترهای بیشتر، برای خلاقیت نقطهی عطفی نخواهند بود. این درک پیامدهای گستردهای برای آیندهی کار دارد، به خصوص زمانی که الگوریتمها با دنیای فیزیکی تعامل دارند، که همانطور که خواهیم دید، صنعت خودروهای خودران را با مشکل مواجه کرده است.
تناقض مورآوک
در سال ۱۹۸۸، هانس مورآوک (Hans Moravec) اشاره کرد که «ایجاد عملکردی در سطح بزرگسالان برای رایانهها در آزمونهای هوش یا بازی د checkers (پادشاه مهرهها) نسبتاً آسان است، در حالی که دادن مهارتهای یک کودک یک ساله به آنها در زمینه درک یا تحرک دشوار یا غیرممکن است.» (۲۱) این چالش امروزه نیز همچنان مرتبط است. مسئله کمبود پیشرفت در خودکارسازی کارهای دستی نیست، بلکه این است که چنین پیشرفتی به توانایی انسانها در تصور روشهای هوشمندانهی بازسازی کار برای امکان خودکارسازی آن بستگی دارد. برای مثال، ما با اختراع رباتهایی که قادر به تکرار دقیق رویههای دستی صنعتگران قرون وسطی بودند، مشاغل آنها را خودکار نکردیم. در نهایت، در محیط کارخانهای ساختاریافته، کار صنعتگران را به وظایف تکراری تقسیم کردیم و آنها را به تدریج و تک تک خودکار کردیم. همچنین با ساخت رباتهایی که توانایی حمل نردبان و بالا رفتن از تیر چراغ برق را داشته باشند، شغل روشن کردن چراغها را خودکار نکردیم. از این رو، همانطور که بسیاری از اقتصاددانان انجام دادهاند، تلاش برای ارزیابی اینکه آیا کاری با صرفاً ارزیابی بخشهایی از وظایف که ماشینها میتوانند انجام دهند قابل خودکارسازی است، منجر به برآوردهای نادرستی میشود: شما ناگزیر نتیجه میگیرید که کار روشن کردن چراغها، کارگران مزرعه، آسانسورچیها، کارواش ماشین، اپراتورهای سوئیچبرد و رانندگان کامیون قابل خودکارسازی نیستند. با این حال، تاریخ خلاف این را به ما نشان داده است. (۲۲)
همانطور که قابل پیشبینی بود، استقرار وسایل نقلیه خودران به محیطهای نسبتاً ساختاریافته مانند بنادر، معادن و انبارها محدود شده است. همانطور که در مقاله ۲۰۱۳ خود استدلال کردیم، میزان پذیرش رباتها و وسایل نقلیه خودران همچنان به نبوغ مهندسان در بازپیکربندی محیطی که فناوری در آن کار میکند بستگی خواهد داشت. استفادهی آمازون رباتیک (Amazon Robotics) از استیکرهایی برای هدایت رباتها در اطراف انبارها، و همچنین پیشبرد ساختوپیش ساخته (prefabrication) در ساخت و ساز، که در آن بخشهایی از سازه در کارخانه به جای محل ساخته میشوند، نمونههایی از این دست هستند. درست است که پیشرفتهای اخیر در هوش مصنوعی ممکن است با کاهش برخی نگرانیهای درک (perception)، دامنههای استقرار احتمالی وسایل نقلیه خودران را نیز گسترش دهد. برای اینکه یک الگوریتم به طور مناسب به محیطی که با آن در تعامل است پاسخ دهد، به نوعی «درک» از اشیایی که ممکن است با آنها مواجه شود نیاز دارد. به عنوان مثال، یک ماشین بدون راننده چگونه به یک آدمبرفی که وسط جاده ایستاده است پاسخ میدهد؟ بهبود در بینایی کامپیوتر (computer vision) در این زمینه ممکن است مهم باشد – برای نمونه، پیشرفتها در زمینههای عصبی تابش (Neural Radiance Fields – NeRF) ممکن است با تولید دادههای مصنوعی – دادههای تولیدشده به صورت مصنوعی – برای آموزش کارآمدتر وسایل نقلیه خودران، شبیهسازی آسانتر صحنههای سه بعدی را تسهیل کند. (۲۳) اما این رویکرد درمان قطعی نیست: دادههای مصنوعی به ناچار محصول دادههای خود NeRF و مفروضات ضمنی آن خواهند بود که برای مفید بودن دادههای مصنوعی باید معتبر باشند. اگر فرضیات و دادههای NeRF برخی ملاحظات مهم دنیای واقعی را نادیده بگیرند، دادههای مصنوعی آن نیز چنین خواهند بود.
در حالی که امروزه LLMها (مدلهای زبان بزرگ) به طور گسترده مورد توجه قرار میگیرند، صنعت خودروهای خودران به دلیل عدم تحقق وعدههای اولیهاش اغلب مسخره میشود. با این حال، همانطور که آزمایشهای متعدد تاکسیهای خودران در شهرهایی از سانفرانسیسکو تا شنژن نشان میدهد، وسایل نقلیه خودران نیز پیشرفت قابل توجهی در سالهای اخیر داشتهاند.
علاوه بر مقدار دادههای آموزشی موجود، یک تفاوت اساسی بین صنعت خودروهای خودران و LLMها این است که مردم به طور کلی و به ویژه در اماکن عمومی، نسبت به ورود الگوریتمها به دنیای فیزیکی بسیار ریسکگریز هستند. همانطور که اشاره شد، LLMها مستعد توهمزایی (hallucination) هستند. با این حال، به نظر میرسد عواقب ساختن منابع (references) برای یک مقاله توسط ChatGPT در مقایسه با عواقب بالقوهی ویرانگر توهمزایی یک ماشین خودران در ترافیک، ناچیز باشد. در حالی که احتمالاً متن و تصاویر جعلی قابل ویرایش یا حذف هستند، حوادث مرگبار ترافیکی قابل برگشت نیستند. این موضوع نکتهی گستردهتری را برجسته میکند: هوش مصنوعی – در شکل فعلیاش – به احتمال کمتری در زمینههای با ریسک بالاتر مانند رانندگی نسبت به فعالیتهای با ریسک پایینتر مانند خدمات مشتری یا انبارها مستقر میشود. توانایی تحمل اشتباه، گرهخورد اصلی خودکارسازی کارهایی است که به درک (perception) و تحرک (mobility) وابسته هستند. مدلهای بنیادین مبتنی بر شبکههای عصبی عمیق (deep neural networks) که تصمیماتی میگیرند که ما نمیتوانیم آنها را توضیح دهیم، پتانسیل ایجاد اشتباههای زیادی را دارند. برای استقرار گسترده در فضاهای فیزیکی، به هوش مصنوعی قدرتمند، قابل اعتماد و قابل توضیح نیاز خواهیم داشت. (۲۴) بنابراین، مشاغلی که بر وظایف پیچیده درک و دستکاری متمرکز هستند، از خودکارسازی نسبتاً در امان هستند – نتیجهگیری مشابهی که در سال ۲۰۱۳ به آن رسیدیم.
مقرون به صرفه بودن اشتباهات، گرهخورد اصلی خودکارسازی وظایف وابسته به درک و تحرک است.
آیندهی کار
گفته میشود فیزیکدان نیلز بور (Niels Bohr) زمانی به شوخی گفته است که «خداوند مسائل آسان را به فیزیکدانان واگذار کرد.» (۲۵) در حالی که قوانین فیزیک در طول زمان ثابت هستند و در سراسر زمان و فضا اعمال میشوند، شرایط مرزی در علوم اجتماعی جاودانه نیستند. همین امر برای مهندسی نیز صادق است که به طور پیوسته ابزارهای ما را برای خودکارسازی کار در حوزههایی که قبلاً غیرقابل تصور بود، گسترش داده است و پیامدهای جدید و غیرقابل پیشبینی برای کارگران و جامعه به طور کلی به همراه دارد. موانع قابل توجهی برای ادامهی خودکارسازی وجود دارد، اما همچنین واضح است که اکنون الگوریتمها میتوانند کارهایی را انجام دهند که بسیار فراتر از آنچه در مقاله ما ده سال پیش مشاهده کردیم، است.
به کارهایی با نیاز به هوش اجتماعی فکر کنید که در سال ۲۰۱۳ آنها را غیرقابل خودکارسازی میدانستیم. هوش مصنوعی اکنون ممکن است بتواند جایگزین نیروی کار انسان در بسیاری از تنظیمات مجازی شود، به این معنی که اگر یک کار از راه دور قابل انجام باشد، میتواند به صورت خودکار نیز انجام شود. مشکل این است که هوش مصنوعی تولیدکننده همچنان مستعد توهمزایی است و این ریسکی برای شهرت شرکتهایی است که از آن استفاده میکنند. با توجه به این خطر، انتظار داریم که شرکتها عمدتاً از هوش مصنوعی برای فعالیتهای تراکنشی (transactional) که روابط بلندمدت با مشتری ایجاد نمیکنند، استفاده کنند، در حالی که تعاملات حضوری برای ایجاد اعتماد همچنان مهم خواهد بود.
هوش مصنوعی تولیدکننده همچنین ممکن است در کارهای خلاقانه نقشی داشته باشد، اما برای ایجاد دنبالهها به جای روایتهای جدید مناسبتر است. هوش مصنوعی ممکن است بتواند یک داستان دیگر از بتمن بنویسد (البته بدون دخالت انسان، احتمالاً این داستان کسلکننده و پر از حفره خواهد بود)، اما نمیتواند فیلم «مهر هفتم» (The Seventh Seal) را از ابتدا خلق کند. هوش مصنوعی در ایجاد ترکیبات جدید از ایدههای موجود به جای جهشهای مفهومی مهارت دارد. بنابراین، استقرار هوش مصنوعی تولیدکننده بر گسترش خطوط تولید موجود به جای ایجاد خطوط کسب و کار کاملاً جدید متمرکز خواهد شد.
در نهایت، در مورد کارهای درکمحور (perception tasks)، به احتمال زیاد خودکارسازی همچنان بر محیطهای ساختاریافته تمرکز خواهد کرد، جایی که مهندسان میتوانند محیط را برای امکان خودکارسازی بازطراحی و سادهسازی کنند. دلیل این امر ساده است: در زمینههای با ریسک بالا مانند خدمات تحویل خودکار، تعداد رویدادهای نادری که یک هوش مصنوعی ممکن است با آنها مواجه شود (که به احتمال زیاد در دادههای آموزشی گنجانده نشدهاند) به سادگی بسیار زیاد است. در حال حاضر، استقرار هوش مصنوعی به فعالیتهای با ریسک پایینتر مانند خدمات مشتری – برای مثال Amazon Go – یا انبارداری خودکار محدود خواهد شد.
به طور خلاصه، طی یک دهه گذشته، دامنهی بالقوهی خودکارسازی گسترش یافته و شامل بسیاری از تعاملات اجتماعی مجازی میشود. همین امر در مورد کارهای خلاقانهای که بر ترکیب مجدد ایدههای موجود متمرکز هستند نیز صادق است. علاوه بر این، پیشرفتهای صورتگرفته در بینایی رایانه (computer vision) راه را برای خودکارسازی فعالیتهای درک بیشتری هموار کرده است. با این حال، علیرغم این پیشرفتها، موانع اساسی همچنان مانع از کاربرد خودکارسازی در محیطهای با ریسک بالا میشوند.
هوش مصنوعی و تاثیرات آن بر بازار کار
میانگین تواناییهای هوش مصنوعی به نوبهی خود بر بازار کار تأثیرگذار است. طبق تحقیقات اخیر، توسعهدهندگان نرمافزاری که به «کوپایلوت» گیتهاب (GitHub’s Copilot) دسترسی داشتند، ۵۶ درصد سریعتر از گروه کنترل، کار را به اتمام رساندند و توسعهدهندگان با تجربهی کمتر برنامهنویسی، بیشترین پیشرفت را نشان دادند. (۳۰) به طور مشابه، نشان داده شده است که چتگپت (ChatGPT) بهرهوری نویسندگان، به ویژه آنهایی که تواناییهای پایینتری دارند، را در تکمیل وظایف ارتقا میدهد. (۳۱) در میان کارگزاران خدمات مشتری که به دستیار مبتنی بر هوش مصنوعی دسترسی پیدا کردند، بهرهوری ۱۴ درصد افزایش یافت و باز هم کارآموزان و کارگران کممهارت بیشتر از آن بهرهمند شدند. (۳۲) این بدان معناست که افراد بسیار بیشتری میتوانند «به طور مناسب» شغل را انجام دهند. درست همانطور که اوبر موانع ورود به خدمات تاکسی را کاهش داد، افراد بیشتری در کارهای خلاقانه شرکت خواهند کرد. چتگپت جایگزین روزنامهنگاران نخواهد شد، همانطور که کوپایلوت گیتهاب جایگزین برنامهنویسان نمیشود. اما آنها این کارها را برای تازهکاران آسانتر میکنند و باعث رقابت بیشتر میشوند. به عبارت دیگر، هوش مصنوعی تولیدکننده به نویسندگان، طراحان و مدیران تبلیغاتی معمولی کمک میکند تا رقبای ماهرتر خود را تضعیف کنند.
سوالی که مطرح میشود این است که با ارزانتر شدن تولید محتوا توسط هوش مصنوعی تولیدکننده، مردم چقدر بیشتر محتوا مصرف خواهند کرد؟ از نظر ما، این تا حدودی شبیه به پرسیدن این سوال است که اگر نتفلیکس ارزانتر بود و محتوای بهتری داشت، چقدر زمان بیشتری را صرف آن میکردید؟ پاسخ احتمالاً به اندازهی زیادی نخواهد بود – طول روز همچنان محدود است. وفور شدید محتوا با زمان و توجه محدود انسان رقابت خواهد کرد. در عوض، احتمالاً مردم این محتوای باکیفیتتر را جایگزین محتوای عمومی کنند. در نتیجه، بسیاری از تولیدکنندگان محتوای فعلی به احتمال زیاد شاهد فشار فزایندهای بر دستمزد خود خواهند بود، در حالی که بسیاری از تازهکارانی که از مشاغل کمدرآمدتر وارد این حوزه میشوند، درآمد خود را افزایش خواهند داد.
هوش مصنوعی تولیدکننده، علیرغم مزایایی که برای بسیاری از کارگران دارد و باعث جابجایی گسترده شغلی نمیشود، به طور قابل توجهی بازار کار را مختل خواهد کرد.
بنابراین، هوش مصنوعی تولیدکننده، با وجود مزایایی که برای بسیاری از کارگران دارد و باعث جابجایی گسترده شغلی نمیشود، به طور قابل توجهی بازار کار را مختل خواهد کرد. این آشفتگی به احتمال زیاد به صورت ناآرامیهای اجتماعی بروز پیدا میکند.
به اعتراضات رانندگان تاکسی در لندن در زمان معرفی اوبر فکر کنید که خیابانها را مسدود کردند، یا رانندگان فرانسوی که در مقاومت خود به اقدامات افراطی مانند واژگون کردن خودروها و آتش زدن لاستیکها متوسل شدند. این اعتراضات مانع پذیرش این فناوری در برخی مناطق از جمله آلمان شد.
علاوه بر این، کارمندان حرفهای (white-collar workers) که فشار هوش مصنوعی را احساس میکنند، از نظر سیاسی تأثیرگذارتر از همتایان یقهآبی (blue-collar workers) خود هستند که طی دهههای گذشته با معرفی رباتها در کارخانهها، شاهد اختلالات تکنولوژیکی بودهاند. نمونهای قدرتمند از این موضوع، اعتصاب مشترک فیلمنامهنویسان و بازیگران هالیوود علیه استفاده از هوش مصنوعی تولیدکننده است که منجر به تعطیلی تولیدات تلویزیونی و سینمایی شد – اولین اعتصاب جمعی این صنعت در بیش از شصت سال. بازیگران و فیلمنامهنویسان، مانند سایر کارمندان حرفهای، موقعیت بهتری برای مقاومت در برابر فناوریهایی دارند که معیشت آنها را تهدید میکند و صحنه را برای درگیریهای احتمالی که ممکن است پذیرش گسترده هوش مصنوعی تولیدکننده را کند کند، آماده میسازند.
آیندهی هوش مصنوعی: آیا سادهسازی کارها مقدمهای برای خودکارسازی کامل است؟
برای درک بهتر، دوباره به فانوسداران (lamplighters) توجه کنید. پیش از ظهور برق، فانوسداران با حمل مشعل و نردبان، چراغهای گازی را در شب روشن میکردند و خیابانهای شهرها و شهرکهای آمریکا را روشن نگه میداشتند. در ابتدا، ورود چراغهای برق خیابان را به سادگی آسانتر کرد. هر چراغ یک کلید داشت که به صورت دستی روشن و خاموش میشد. تأثیر چراغهای برق شبیه به تأثیر هوش مصنوعی تولیدکننده بود، چرا که روشن کردن چراغ را آنقدر ساده کرد که فانوسداران به زودی با رقابت بیشتری روبرو شدند. حتی بچهها هم به راحتی میتوانستند در مسیر رفتن به مدرسه، چراغها را روشن و خاموش کنند. اما دیری نپایید که کنترل چراغهای خیابان از طریق ایستگاههای فرعی (substations) صورت گرفت و تقاضا برای فانوسداران به شدت کاهش یافت. (۳۳)
آیا میتوانیم چنین «لحظهی ایستگاه فرعی» (substation moment) را برای هوش مصنوعی تولیدکننده پیشبینی کنیم؟ پاسخ به این سوال اجتنابناپذیر حدس و گمان است، اما از نظر ما، این اتفاق به زودی رخ نخواهد داد. چنین تغییری نیازمند پیشرفتهای تکنولوژیکی جدیدی است. همانطور که قبلاً ذکر شد، دادههای مصرفی LLMها در حال حاضر قابل توجه است و افزایش چشمگیر مجموعههای آموزشی به میزان زیادی امکانپذیر نیست. علاوه بر این، دلایل موجهی برای پیشبینی انباشته شدن محتوای کمکیفیت تولیدشده توسط هوش مصنوعی در اینترنت وجود دارد که وب را به منبعی به طور فزاینده نامناسب برای دادههای آموزشی تبدیل میکند. در واقع، نشانههای اخیر حاکی از آن است که محتوایی که الگوریتمها از آن یاد میگیرند، یکنواختی بیشتری را نشان میدهد. برای مثال، در حوزه موسیقی، به نظر میرسد که میانگین خلاقیت از زمان ظهور رایانهها کاهش یافته است، که در کاهش تغییرات کلیدی در طول دههها مشهود است. به همین ترتیب، به نظر میرسد که نوشتار انسان بیشتر مبتنی بر قواعد، فرمولبندیشده و مکانیکی است که منجر به ورودی کمتنوعتر برای یادگیری الگوریتمهای هوش مصنوعی میشود.
راههایی برای ایجاد دادههای جدید وجود دارد، مانند استفاده از NeRFها برای شبیهسازیها (همانطور که قبلاً گفته شد) یا به سادگی با ایجاد دادههای مصنوعی مانند متن یا کد. (۳۵) برای مثال، در توسعهی AlphaFold – سیستمی که در پیشبینی ساختار سهبعدی پروتئینها عملکرد فوقالعادهای داشت و حتی در مسابقاتی مانند CASP (ارزیابی بحرانی پیشبینی ساختار) از محققان انسان پیشی گرفت – DeepMind بخشی از پیشبینیهای خود مدل را در دادههای آموزشی گنجاند، و بدین ترتیب مجموعه داده را گسترش داد. اما در نهایت، این کار در وهلهی اول به داشتن مجموعهی دادهی عظیمی از ساختارهای شناختهشدهی پروتئین از منابع در دسترس عموم مانند بانک اطلاعاتی پروتئین (PDB) وابسته بود. (۳۶) در حال حاضر، بدون وجود دادههای موجود، راهحلهای جایگزین اندکی وجود دارد.
علاوه بر این، مهم است به خاطر داشته باشیم که AlphaFold به طور خاص برای یک کار خاص ساخته شده است و یک فناوری چندمنظوره نیست. در رابطه با LLMها، تحقیقات انجامشده توسط آکسفورد و کمبریج نشان داده است که دادههای مصنوعی میتوانند باعث آسیبهای جبرانناپذیر و در نتیجهی آن خرابی مدل شوند. (۳۷)
این درست است که تنظیم دقیق و یادگیری تقویتی از بازخورد انسان (RLHF) میتواند توانایی هوش مصنوعی تولیدکننده را برای بهبود بیشتر تقویت کند. مدل خروجی خود را با پاسخهای انسان تنظیم میکند و در نهایت با گذشت زمان یاد میگیرد. اما RLHF به یک کار پرکار تبدیل میشود؛ تحقیقات اخیر توسط مجلهی تایم (TIME) نشان داد که OpenAI بخشی از این کار را به کارگران کنیایی با درآمد کمتر از ۲ دلار در ساعت واگذار کرده است. (۳۸) حتی برخی نشانهها حاکی از آن است که اثربخشی LLMها در ماههای اخیر کاهش یافته است. یک تفسیر این است که تعامل با کاربران باعث بدتر شدن این سیستمها شده است، که نشان میدهد RLHF در شکل فعلی خود به مانعی برخورد کرده است. (۳۹)
در همین حال، مطالعات دیگر نشان میدهد که میزان قضاوتهای اشتباهآمیز شبیه انسان از ۱۸ درصد در GPT-3 به ۳۳ درصد در GPT-3.5 و به ۳۴ درصد در GPT-4 افزایش یافته است، حتی با وجود اینکه این مدل در قضاوتهای صحیح شبیه انسان بهتر عمل کرده است. این مشاهده نشان میدهد که LLMهای بزرگتر و پیچیدهتر ممکن است تمایل به ارتکاب اشتباهاتی مشابه با اشتباهات انسان داشته باشند. (۴۰)
با این حال، ما انتظار داریم که با شروع کسبوکارها به استفاده از مدلهای بنیادی مانند GPT-4 و استفاده از مجموعه دادههای تخصصیتر برای کارهای خاص، در کوتاهمدت شاهد بهبودهای حاصل از تنظیم دقیق باشیم. به عنوان مثال، شرکتهایی که یک ربات خدمات مشتری را آموزش میدهند، دادههایی از پرسشهای واقعی مشتریان خواهند داشت که نمونههایی از پاسخهای مؤثر را ارائه میدهد، درست مانند شرکتهای داروسازی که دادههایی برای امکان تنظیم دقیق به سمت کشف دارو خواهند داشت. این رویکرد یک روش مقرونبهصرفه برای تطبیق یک مدل ازپیش آموزشدیده برای یک استفاده خاص ارائه میدهد. با این حال، این تنظیم دقیق همچنان به بسیاری از مشکلات اساسی هوش مصنوعی که به آنها اشاره کردهایم نمیپردازد.
زمانی که مقاله ما در سال ۲۰۱۳ منتشر شد، حوزهی هوش مصنوعی نسبتاً متنوع بود و روشهای گوناگونی را در بر میگرفت. با این حال، از آن زمان به بعد، تمرکز به سمت روشهایی با نیاز به نیروی محاسباتی و دادهی گسترده، مانند یادگیری عمیق، تغییر پیدا کرده است. این تمرکز محدود، بدون شک منجر به پیشرفتهای ملموسی شده است، اما به نظر ما، به احتمال زیاد با بازدهی کاهشی مواجه خواهد شد. از یک سو، هوش مصنوعی تولیدکننده همچنان تمایل به تولید خروجیهای اشتباهآمیز یا تخیلی دارد و بدون نوآوریهای بیشتر، مشکل توهمزایی (hallucinations) همچنان باقی خواهد ماند. بنابراین، فراتر از پیشرفتهای ذکر شده در بالا، به صرف مقیاسبندی مدلهای موجود، بعید به نظر میرسد که حوزهی بالقوهی خودکارسازی به طور قابل توجهی رشد کند. (۴۱)
نتیجهگیری
در پایان، در حالی که انتظار داریم هوش مصنوعی همچنان ما را شگفتزده کند و بسیاری از مشاغل را (در صورت عدم وجود پیشرفتهای چشمگیر) خودکار کند، همچنین انتظار داریم موانعی که در مقاله ۲۰۱۳ خود شناسایی کردیم، در آیندهای قابل پیشبینی، امکانات خودکارسازی را محدود کنند.
یادداشتها
- این موضوع در مورد رکود بزرگ نیز صادق بود. نگاه کنید به مقاله Alexander J. Field با عنوان «فناورانهترین دههی قرن» منتشر شده در مجلهی American Economic Review، شمارهی ۴، جلد ۹۳ (سال ۲۰۰۳): صفحات ۱۳۹۹-۱۴۱۳.
- کارل بی. فری و مایکل ای. آزبورن، «آیندهی اشتغال: مشاغل تا چه حد در برابر رایانهای شدن آسیبپذیر هستند؟»، پیشبینیهای فناورانه و تغییر اجتماعی، شمارهی ۱۱۴ (سال ۲۰۱۷): صفحات ۲۵۴-۲۸۰. اولین نسخهی پیشنویس این مقاله در سال ۲۰۱۳ منتشر شد.
- ایان گودفلو و همکاران، «شبکههای مولدِ متخاصم» (Generative Adversarial Networks)، مجلهی Communications of the ACM، شمارهی ۱۱، جلد ۶۳ (سال ۲۰۲۰): صفحات ۱۳۹-۱۴۴. این مقاله در سال ۲۰۱۴ به عنوان پیشنویس منتشر شد.
- OpenAI، گزارش فنی GPT-4 (سال ۲۰۲۳). https://cdn.openai.com/papers/gpt-4.pdf
- کالین جی. وست، «پیشرفتها در استدلال فیزیک مفهومی آشکار در GPT-4»، ArXiv 2303، شمارهی ۱۷۰۱۲ (سال ۲۰۲۳).
- منابع دادهای که LLMها با آنها آموزش داده شدهاند، برای دنیای خارج ناشناخته باقی مانده است.
- جوزف وایزنبوم، «ELIZA – یک برنامهی رایانهای برای مطالعهی ارتباط زبان طبیعی بین انسان و ماشین»، مجلهی Communications of the ACM، شمارهی ۱، جلد ۹ (سال ۱۹۶۶): صفحات ۳۶-۴۵. اليزا (ELIZA) یکی از اولین چتباتهای شناختهشده است.
- کال نیوپورت، «ChatGPT چه نوع ذهنی دارد؟»، نیویورکر، ۲۳ آوریل ۲۰۲۳.
- دانیلا سرتوری-کورتینا و برندن کیس، «والمارت از هوش مصنوعی برای مذاکره در مورد بهترین قیمت با برخی از فروشندگان استفاده میکند»، بیزنسویک، ۲۶ آوریل ۲۰۲۳.
- امیلیا سیمئونووا، نیلز اسکیپر و پیتر آر. تینگهولم، «مهارتهای مدیریت سلامت پزشک و نتایج بیمار»، مجلهی Journal of Human Resources، شمارهی ۴، جلد ۵۸ (سال ۲۰۲۲).
- لیودمیلا آلکسکایوا و همکاران، «از حضوری به آنلاین: شکل جدید صنعت سرمایهگذاری خطرپذیر» (پیشنویس، دانشکدهی بازرگانی IESE، ۲۰۲۲).
- کال نیوپورت، «ChatGPT چه نوع ذهنی دارد؟»، نیویورکر، ۲۳ آوریل ۲۰۲۳.
- جیمز وینسنت، «ربات چتبات بارد گوگل در اولین نمایش، اشتباه واقعی کرد»، ورج، ۸ فوریه ۲۰۲۳.
- کوین روس، «گفتگو با چتبات بینگ مرا عمیقاً پریشان کرد»، نیویورک تایمز، ۱۷ فوریه ۲۰۲۳.
- دانیلا سرتوری-کورتینا و برندن کیس، «والمارت از هوش مصنوعی برای مذاکره در مورد بهترین قیمت با برخی از فروشندگان استفاده میکند»، بیزنسویک، ۲۶ آوریل ۲۰۲۳.
- جو کاسکارلی، «یک هوش مصنوعی با جعل آهنگهای «دریک» و «آخر هفته» دنیای موسیقی را تکان داد»، نیویورک تایمز، ۱۹ آوریل ۲۰۲۳.
- کال نیوپورت، «ChatGPT چه نوع ذهنی دارد؟»، نیویورکر، ۲۳ آوریل ۲۰۲۳.
- آرتور گلنبرگ و کامرون جونز، «برای درک جهان به یک بدن نیاز است – چرا ChatGPT و سایر هوش مصنوعیهای زبان نمیدانند چه میگویند»، کانورسیشن، ۶ آوریل ۲۰۲۳.
- لئونارد بوسیوکس، «آیندهی بدون جمعیت؟ چگونه هوش مصنوعی تولیدکننده در حال شکلدهی به آیندهی برونسپاری جمعی انسان است؟» (پیشنویس، دانشکدهی بازرگانی هاروارد، ۲۰۲۳)، http://dx.doi. org/10.2139/ssrn.4533642.
- ریچارد واترز، «انسان در بازی Go از ماشین برنده شد، پیروزی انسان بر هوش مصنوعی»، فایننشیال تایمز، ۱۷ فوریه ۲۰۲۳.
- هانس موراوک، «فرزندان ذهن: آیندهی هوش ربات و انسان» (کمبریج: انتشارات دانشگاه هاروارد، ۱۹۸۸).
- کارل بی. فری، «تلهی تکنولوژی: سرمایه، کار و قدرت در عصر خودکارسازی» (پرینستون: انتشارات دانشگاه پرینستون، ۲۰۱۹).
- جاناتان تی. بارون و همکاران، «Zip-NeRF: میدانهای تابش عصبی شبکهای مبتنی بر شبکهی ضدنا aliasing» (۲۰۲۳)، [invalid URL removed].
- گری مارکوس، «دههی آینده در هوش مصنوعی: چهار گام به سوی هوش مصنوعی قوی»، ArXiv، شمارهی ۰۶۱۷۷ (۲۰۲۰).
- کارل بی. فری، «تلهی تکنولوژی: سرمایه، کار و قدرت در عصر خودکارسازی» (پرینستون: انتشارات دانشگاه پرینستون، ۲۰۱۹).
- دیوید اوتور و همکاران، «مرزهای جدید: خاستگاه و محتوای کار جدید، ۱۹۴۰-۲۰۱۸» (پیشنویس، دفتر ملی پژوهشهای اقتصادی، ۲۰۲۲)، https://www.nber.org/system/files/working_papers/w30389/w30389.pdf؛ تور برگر، کارل بی. فری، «آیا انقلاب رایانهای باعث تغییر سرنوشت شهرهای ایالات متحده شد؟ شوکهای فناوری و جغرافیای مشاغل جدید»، علوم منطقهای و اقتصاد شهری، ۵۷ (۲۰۱۶): ۳۸-۴۵؛ تور برگر، کارل بی. فری، «بازسازی صنعتی در قرن ۲۱: شواهدی از شهرهای ایالات متحده»، مطالعات منطقهای، ۵۱، شمارهی ۳ (۲۰۱۷): ۴۰۴-۴۱۳.
- جان جامپر و همکاران، «پیشبینی ساختار پروتئین با دقت بالا با AlphaFold»، Nature 596، شمارهی ۷۸۷۳ (۲۰۲۱): ۵۸۳-۵۸۹.
- کارل بی. فری، «تلهی تکنولوژی: سرمایه، کار و قدرت در عصر خودکارسازی» (پرینستون: انتشارات دانشگاه پرینستون، ۲۰۱۹)؛ همچنین نگاه کنید به دارون آسماوغلو، پاسکوال رسترپو، «مسابقهی بین انسان و ماشین: پیامدهای فناوری برای رشد، سهم عوامل و اشتغال»، مجلهی بررسیهای اقتصادی آمریکا ۱۰۸، شمارهی ۶ (۲۰۱۸): ۱۴۸۸-۱۵۴۲.
- تور برگر، چینچی چن و کارل بندیکت فری، «محرکهای اختلال؟ برآورد اثرگذاری اوبر»، بررسی اقتصادی اروپا ۱۱۰ (۲۰۱۸): ۱۹۷-۲۱۰.
- سیدا پنگ و همکاران، «تأثیر هوش مصنوعی بر بهرهوری توسعهدهندگان: شواهدی از GitHub Copilot» (کمبریج: دانشکدهی مدیریت اسلون، MIT، ۲۰۲۳).
- شاکد نوی و ویتنی ژانگ، «شواهد تجربی در مورد اثرات بهرهوری هوش مصنوعی تولیدکننده» (پیشنویس، شبکهی تحقیقات علوم اجتماعی، ۲۰۲۳)، https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4375283.
- اریک برینجولفسون، دانیل لی و لیندزی آر. ریموند، «هوش مصنوعی تولیدکننده در محل کار» (پیشنویس، دفتر ملی پژوهشهای اقتصادی، ۲۰۲۳)، http://www.nber.org/papers/w31161.
- کارل بی. فری، «تلهی تکنولوژی: سرمایه، کار و قدرت در عصر خودکارسازی» (پرینستون: انتشارات دانشگاه پرینستون، ۲۰۱۹).
- ایان لزلی، «مبارزه برای انسان بودن»، رافین، ۱۰ دسامبر ۲۰۲۲، https://www.ian-leslie.com/p/the-struggle-to-be-human.
- برای نمونههایی از دادههای مصنوعی، به مقاله «چرا از دادههای کامپیوتری برای آموزش مدلهای هوش مصنوعی استفاده میشود؟» نوشتهی مادومیتا مورگیا در فایننشیال تایمز، ۱۹ جولای ۲۰۲۳ مراجعه کنید.
- جان جامپر و همکاران، «پیشبینی ساختار پروتئین با دقت بالا با AlphaFold»، Nature 596، شمارهی ۷۸۷۳ (۲۰۲۱): ۵۸۳-۵۸۹.
- ایلیا شومایلو و همکاران، «نفرین بازگشت: آموزش بر روی دادههای تولید شده باعث فراموشی مدلها میشود»، ArXiv 2305، شمارهی ۱۷۴۹۳ (۲۰۲۳).
- بیلی پریگو، «اختصاصی: اوپنایآی از کارگران کنیایی با دستمزدی کمتر از ۲ دلار در ساعت برای کاهش سمیت ChatGPT استفاده کرد»، مجلهی تایم، ۱۸ ژانویه ۲۰۲۳.
- لینگجیائو چن، ماتئی زاهاریا و جیمز زو، «رفتار ChatGPT چگونه با گذشت زمان در حال تغییر است؟»، ArXiv 2307، شمارهی ۰۹۰۰۹ (۲۰۲۳).
- فیلیپ کورالوس و وینسنت وانگ-ماشیانیکا، «انسانها در انسانها بیرون: در مورد همگرایی GPT به سمت عقل سلیم در هر دو موفقیت و شکست»، ArXiv 2303، شمارهی ۱۷۲۷۶ (۲۰۲۳).
- توهمات زمانی قابل رفع هستند که معیارهای روشنی از حقیقت وجود داشته باشد. به عنوان مثال، آیا یک مرجع تولید شده توسط LLM واقعاً وجود دارد؟ الگوریتم میتواند به سادگی آن را در وب جستجو کند. اما در بیشتر موارد، چنین معیارهای مستقیمی وجود ندارد.
- مقاله بیلی پریگو در مورد اتهامات سوء استفاده اوپنایآی از کارگران کنیایی برای آموزش ChatGPT به منظور کاهش سمی بودن آن است.
- کاهش سمی بودن در هوش مصنوعی به معنای کاهش احتمال تولید محتوای مضر توسط مدلهای هوش مصنوعی است. این محتوای مضر میتواند شامل موارد زیر باشد:
- متن توهینآمیز یا تبعیضآمیز:مدلهای هوش مصنوعی ممکن است متنی تولید کنند که به افراد یا گروههای خاصی توهین میکند یا آنها را مورد تبعیض قرار میدهد.
- اطلاعات نادرست یا گمراهکننده:مدلهای هوش مصنوعی ممکن است اطلاعات نادرست یا گمراهکننده تولید کنند که میتواند به مردم آسیب برساند.
- محتوای خشونتآمیز یا نفرتانگیز:مدلهای هوش مصنوعی ممکن است محتوای خشونتآمیز یا نفرتانگیز تولید کنند که میتواند برای مردم آزاردهنده یا مضر باشد.
- کاهش سمیت در هوش مصنوعی یک موضوع مهم است زیرا مدلهای هوش مصنوعی به طور فزایندهای در زندگی روزمره ما استفاده میشوند. این مدلها برای تولید متن، ترجمه زبانها، نوشتن خلاقانه و انجام وظایف دیگر استفاده میشوند. اگر این مدلها محتوای مضر تولید کنند، میتواند به افراد و جوامع آسیب برساند.
- راههای مختلفی برای کاهش سمیت در هوش مصنوعی وجود دارد:
- آموزش مدلها با دادههای باکیفیت:مدلهای هوش مصنوعی باید با دادههایی آموزش داده شوند که عاری از محتوای مضر باشد.
- استفاده از تکنیکهای فیلتر کردن:میتوان از تکنیکهای فیلتر کردن برای حذف محتوای مضر از محتوای تولید شده توسط مدلهای هوش مصنوعی استفاده کرد.
- نظارت بر مدلها:مدلهای هوش مصنوعی باید به طور منظم برای اطمینان از عدم تولید محتوای مضر رصد شوند.
- کاهش سمیت در هوش مصنوعی یک چالش مداوم است، اما با تلاشهای مداوم، میتوانیم مدلهای هوش مصنوعی را ایمنتر و مسئولتر کنیم.
- مقاله لینگجیائو چن، ماتئی زاهاریا و جیمز زو به بررسی تغییرات رفتار ChatGPT در طول زمان میپردازد.
- مقاله فیلیپ کورالوس و وینسنت وانگ-ماشیانیکا به بررسی تمایل GPT به سمت عقل سلیم در هر دو موفقیت و شکست میپردازد.
لینک مقاله:
توییتر کارل بندیکت فری:
https://twitter.com/carlbfrey
توییتر Michael A. Osborne:
https://twitter.com/maosbot