هوش مصنوعی تولیدکننده و آینده کار: یک بازنگری

     

    اشاره:
    از این به بعد

    مقالات جالب و پیش بینانه در مورد هوش مصنوعی و تاثیر آنها بر کار و زندگی آدمها را اینجا می گذارم.

    اولین مقاله درمورد کتابیست در مورد بارآوری کار که حدود چند سال پیش درباره آن تحقیق کردم و تقریبا مسیر زندگی من را تا حدی عوض کرد.

    هدف این نوشته بررسی موضوع بارآوری کار است و اگر به دیگر موضوعات اشاره می‌شود تنها برای روشن‌ترشدن مسئله است. مولدبودن کار ازجمله مسائلی است که در این بحث نقش کلیدی دارد، ولی پرداختن به آن مبحث خاص خود را می‌طلبد، و درنتیجه به‌طورمستقیم به آن نمی‌پردازیم. ولی این به آن معنا نیست که اهمیت آن را در نظر نگیریم.

    بارآوری کار ،پیش‌گفتار

    و اراجاعی به مقاله کارل بندیکت فری و مایک آ اوسیورن درباره اوتوماتیک شدن کارها و از دست رفتن مشاغل با این توضیح:

    از هر دو شغل یکی طی ٢۰ سال اتوماتیک می‌شود. Vartannat Jobb automatiseras inom 20 år

    تحقیقی که توسط محققین دانشگاه آکسفورد به سفارش بنیاد تحقیقات استراتژیک SSF(Stiftelsen För Strategisk Forskning) در سوئد انجام شده است.

    این تحقیق توسط کارل بندیک فری Carl Benedikt Frey و مایکل آ اوسبورن Michael A. Osborne انجام شده است. این محققین به این نتیجه رسیده‌اند که شغل‌هایی که با انسان‌ها سر و کار دارند، یعنی فقط در ارتباط با انسانها جهت قانع کردن، دادن کمک‌های فکری و یا در حیطه‌ی کار‌های ذوقی و احساسی و یا ابتکار عمل و ابداع هستند امکان جایگزینی آن‌ها با ماشین نیست. مثلاً استادکار جنگل کاری، کشیش و آموزگاران متخصص، از جمله کسانی هستند که حداقل ریسک برای جایگزینی با ماشین را دارند. در گزارش آمده است که «یک پیش بینی احتیاط آمیز برای آینده می‌تواند این باشد که یک موج تکنیک [یورش تکنیکی] می‌تواند به این ختم شود که فشار زیادی بر دستمزد‌ها و اشتغال در شغل‌هایی که در حوزه خطر قرار دارند وارد شود.» بیکار سازی یا از دست دادن کار همواره یکی از پیامد‌های رشد تکنولوژی بوده است و هر چه این تکنولوژی بیشتر پیشرفت کند و در عین حال کار را بارآور‌تر سازد، نیروی کار کمتری را نیاز دارد زیرا ماشین همواره می‌تواند جای انسان‌ها را در تولید پر کند. همانگونه که در این تحقیق اشاره شده است اگر قبل از انقلاب صنعتی «نیروی کار انسانی در صورتی که با آموزش یا توانایی کار دستی یا حرفه‌یی کامل نمی‌شد، ارزشی نداشت. با انقلاب صنعتی صنعت به آن حدی رشد کرد که کار به هدایت و کنترل و کمک انسانی احتیاج داشت که به آموزش و خلاقیت خاصی نیازی نداشت. نیاز به کارگر تا آن حدی رشد کرد که کار می‌توانست به اولین و ارجح‌ترین منبع ارزش تبدیل شود بدون آن که اشتغال کامل را تهدید کند…. طی دهه‌های اخیر گاهی رشد تکنیک این وضعیت را تغییر داده است. ماشین‌ها از پس کار‌های بیشتری بر می‌آیند که قبلاً برای آن کار‌ها به انسان نیاز بود، ضمن آن که کامپیوتر‌ها بارآوری کار را برای آن دسته از گروه‌های کاری که آموزش‌های بالا دارند، افزایش داده اند.» این رشد، شتاب زیادی دارد به حدی که تا ده سال پیش به نظر می‌رسید که بسیاری کار‌ها نمی‌توانند کامپیوتری شود و یا به سخن دیگر، از کنترل انسان‌ها خارج شوند، به عنوان نمونه راندن اتومبیل ولی همانگونه که می‌دانیم امروزه این عملی شده است و به زودی اتومبیل‌ها و حتی اتوبوس‌های بدون راننده انسانی در راه‌های عمومی به حرکت در خواهند آمد. «اولیای امور دفاعی امریکا Darpa طی دهه‌ی اخیر مسابقاتی را ترتیب داده است که به کسانی که اتومبیل‌های بدون راننده را بسازند جوایزی تعلق می‌گیرد. امروزه این پروژه عملی شده است.»

    مقاله‌ای منتشر شده در سال ۲۰۱۳ به نام «احتمال اتوماسیون مشاغل در آینده»
    که پیشبینی می‌کند:

    • ۴۷% از مشاغل در ایالات متحده در معرض خطر اتوماسیون بالا در دهه های آینده هستند.
    • مشاغل با مهارت های روتین و قابل برنامه ریزی بیشتر در معرض خطر هستند.
    • مشاغلی که به خلاقیت، هوش اجتماعی و مهارت های حل مسئله نیاز دارند، اتوماسیون کمتری دارند.
    • اتوماسیون می تواند منجر به از دست دادن شغل در برخی از بخش ها شود، اما همچنین می تواند مشاغل جدیدی در سایر بخش ها ایجاد کند.
    • سیاست گذاران باید برای کمک به کارگران برای سازگاری با دنیای کار در حال تغییر، آموزش و پرورش و برنامه های حمایتی را ارائه دهند.
    • این مقاله یکی از اولین مطالعاتی بود که به طور سیستماتیک احتمال اتوماسیون مشاغل را بررسی کرد.
    • یافته های این مقاله بحث های زیادی را در مورد آینده کار و تأثیر اتوماسیون بر مشاغل ایجاد کرد.
    • این مقاله هنوز هم به طور گسترده توسط محققان، سیاست گذاران و رهبران مشاغل مورد استناد قرار می گیرد.

    حالا مقاله از سمت نویسندگان مجددا و پس از انقلاب هوش مصنوعی در دو سال اخیر- ارزیابی شده:

    هوش مصنوعی تولیدکننده و آینده‌ی کار: یک بازنگری

    مقدمه

    همانند امروز، اوایل دهه ۲۰۱۰ نیز دوران هیجان برای شگفتی‌های تکنولوژی جدید بود. دنیا از بدترین بحران مالی بعد از رکود بزرگ (Great Depression) جان سالم به در برده بود و با وجود کسالت مالی باقیمانده، به نظر می‌رسید آمریکا در آستانه‌ی جهش بهره‌وری (productivity boom) قرار دارد. هوش مصنوعی (AI) که مدت‌ها به‌عنوان حوزه‌ای عقب‌افتاده در دانشگاه‌ها شناخته می‌شد، بالاخره به ثمر نشست. در سال ۲۰۱۱، یک سیستم کامپیوتری پاسخ‌دهنده به سوال به نام «هوش مصنوعی واتسون» (IBM Watson) قهرمان جهان در مسابقه‌ی «جئوپاردی» (Jeopardy) را شکست داد. یادگیری ماشینی (machine learning) – زیرمجموعه‌ای از هوش مصنوعی – حوزه آنچه رایانه‌ها می‌توانستند انجام دهند را بیشتر گسترش داد. در سال ۲۰۱۲، یک تیم یادگیری ماشینی از گوگل یک شبکه‌ی عصبی عمیق (deep neural network) را آموزش داد که بدون اینکه هرگز به آن گفته شود گربه چیست، به‌طور مستقل قادر به تشخیص ویدیوهای گربه در یوتیوب شد.

    دیگر روزهایی که یک برنامه‌نویس کامپیوتر برای هدایت اعمال یک ماشین در هر شرایطی نیاز به نوشتن قوانین صریح داشت، گذشته بود. اکنون رایانه‌ها می‌توانستند با بهره‌گیری از ردپای داده‌هایی که تعداد روزافزون کاربران آنلاین به جا می‌گذاشتند، قوانین را استنتاج کنند. این پدیده با توسعه‌ی وسایل نقلیه‌ی خودران به وضوح قابل مشاهده بود. هیچ برنامه‌نویسی نمی‌توانست پیش‌بینی کند که یک انسان راننده‌ در ترافیک شهری با چه موقعیتی روبرو می‌شود و حتی نمی‌توانست این موقعیت‌ها را در یک دنباله‌ی دستورات «اگر-پس-انجام بده» (If-Then-Do) ثبت کند. در عوض، وسایل نقلیه‌ی خودران با جمع‌آوری حجم عظیمی از داده‌ها درباره‌ی اعمال رانندگان در ترافیک شهری برای پیش‌بینی اینکه انسان‌ها در هر موقعیتی چه کاری انجام می‌دهند، پیشرفت کردند.

    در سال ۲۰۱۳، ما مقاله‌ای منتشر کردیم که تخمین می‌زد ۴۷ درصد از مشاغل در معرض پیشرفت‌های اخیر در یادگیری ماشینی و رباتیک پیشرفته قرار دارند (۲). هنوز مقاله‌ی «شبکه‌های مولدِ خصم‌آمیز» (Generative Adversarial Networks) اثر ایان گودفلو (Ian Goodfellow) و همکارانش منتشر نشده بود. با این حال، برآوردهای ما چشم‌اندازی اجمالی را به عصر هوش مصنوعی تولیدکننده (Generative AI) ارائه می‌کرد: درمی‌یافتیم که مدلینگ لباس یکی از مشاغل در معرض خطر است. تنها چند سال بعد، مدل‌های دیجیتال لباس به صورت انبوه تولید می‌شدند (۳). با این وجود، در مجموع ما بر این باور قاطع بودیم که – در نبود جهش‌های عمده‌ی پیش‌بینی‌نشده – وظایفی که نیازمند خلاقیت، هوش اجتماعی و کار دستی بدون ساختار هستند، همچنان پناهگاه‌های امنی برای کارگران انسانی باقی خواهند ماند. مشاغل روزنامه‌نگاران، دانشمندان، مهندسان نرم‌افزار، مدیران هنری و معماران همگی در معرض خطر کمی برای خودکار شدن قرار داشتند.

    یک دهه بعد، اکنون مدل‌های زبان بزرگ (Large Language Models) مانند GPT-4 می‌توانند، ، به طرز حیرت‌انگیزی شبیه به انسان، به سؤالات پاسخ دهند و مقاله بنویسند. مولدهای تصویر مانند DALL-E 2 می‌توانند عبارات متنی را به تصاویر جدید تبدیل کنند و کار خلاقانه‌ی طراحان و مدیران تبلیغاتی را به تصویر بکشند، به غیر از CoPilot محصول گیت‌هاب، یک «برنامه‌نویس زوجی» (pair programmer) قدرتمند با هوش مصنوعی که قادر به نوشتن کد است.

    تعداد حوزه‌هایی که به نظر می‌رسد هوش مصنوعی در آن‌ها به تسلط در سطح انسان دست یافته است، خیره‌کننده است. OpenAI، یک آزمایشگاه تحقیقاتی هوش مصنوعی آمریکایی، گزارش می‌دهد که LLM آن‌ها در یک آزمون وکالت شبیه‌سازی‌شده، بخش ریاضی آزمون SAT و دوره‌ی آموزشی مقدماتی ساقی- تست کننده شراب- (sommelier) با نمره‌ای در حدود ۱۰ درصد برتر از شرکت‌کنندگان در آزمون قبول شده است (۴). تنها در چند ماه، با حرکت دنیا از GPT-3.5 به GPT-4، هوش مصنوعی در حل مسائل فیزیک دانشگاه از جایگاه سی و نهم به نود و ششمین صدک عملکرد در سطح انسان جهش کرد (۵). در حالی که چنین نتایج آزمونی ممکن است بازتاب پاسخ «طوطی‌وار» (parroting) LLM به سوالات رایج امتحانی باشد که در مجموعه‌های آموزشی آن‌ها یافت می‌شود، این سوال را مطرح می‌شود که: آیا ما دامنه‌ی خودکارسازی در آینده‌ی نزدیک را دستِ‌کم نگرفته‌ایم؟ (۶)

    در ادامه، ما بازنگری در تقسیم کار بین انسان‌ها و رایانه‌ها در عصر هوش مصنوعی ارائه می‌دهیم. در همین راستا، بررسی می‌کنیم که آیا هوش مصنوعی تولیدکننده، با تهدید به واژگون کردن جایگاه ویژه انسان‌ها در ۱) کار خلاقانه، ۲) ویژگیهای اجتماعی و ۳) فرایندهای بدون ساختار، قوانین بازی را تغییر داده است؟ در پایان با بحث در مورد پیامدهای این روندهای اخیر فناوری در بازار کار، نتیجه‌گیری خود را ارائه می‌کنیم.

    از زمانی که جوزف وایزنهوم از موسسه فناوری ماساچوست (MIT) در سال ۱۹۶۶ الیزا (ELIZA) را راه‌اندازی کرد، دانشمندان کامپیوتر در تلاش برای ساخت ماشین‌های اجتماعی بوده‌اند. الیزا که به نام الیزا دولیتل – شخصیت اصلی نمایشنامه‌ی پیگمالیون اثر جرج برنارد شاو (۱۹۱۳) – نامگذاری شده بود، اولین الگوریتمی بود که می‌توانست گفتگویی تا حدودی قابل قبول بین انسان و ماشین را تسهیل کند. الیز با الهام از روان‌درمانی راجرز، ورودی‌ای را می‌گرفت و به صورت یک سوال بازنویسی می‌کرد: اگر به الیز در مورد خیانت یک دوست گفته می‌شد، پاسخ می‌داد: «چرا احساس خیانت می‌کنی؟». در واقع، الیز هرگز در آزمون تقلید (imitation game) – آزمونی که توسط آلن تورینگ در سال ۱۹۵۰ طراحی شد و به طور گسترده به عنوان معیاری برای هوش مصنوعی در نظر گرفته می‌شود – موفق نمی‌شد. اگر یک الگوریتم بتواند یک فرد را متقاعد کند که با فرد دیگری صحبت می‌کند، بی‌شک باید چیزی را بفهمد؟ بر اساس این اصل، مسابقات آزمون تورینگ، که در آن داوران وظیفه دارند بین انسان و الگوریتم‌هایی که هویتشان ناشناخته است تمایز قائل شوند، به یک استاندارد رایج برای اندازه‌گیری پیشرفت در هوش مصنوعی تبدیل شد.

    با این حال، نیم قرن بعد، چت‌بات‌ها (chatbots) همچنان ناامیدکننده باقی ماندند. درست است، در سال ۲۰۱۲، در صدمین سالگرد تولد احتمالی آلن تورینگ، یک ربات به نام «یوجین گوستمن» (Eugene Goostman) موفق شد ۳۳ درصد از داوران انسان را متقاعد کند که انسان است اما این ربات با وانمود کردن به اینکه یک پسر اوکراینی با مهارت‌های ابتدایی زبان و دانش فرهنگ انگلیسی است، موفق شد. این حادثه به جای آنکه جهشی در هوش مصنوعی باشد، بر نقص‌های آزمون تورینگ تأکید کرد – گوستمن در تظاهر به هوشمندی مهارت داشت، نه بیشتر. چنین پیشرفت محدودی، حتی در برقراری ارتباط متنی اولیه، ما را به این نتیجه رساند که مشاغل نیازمند هوش اجتماعی در سطح انسان همچنان از خودکارسازی در امان هستند – هرچند اشاره کردیم که برای اینکه یک رایانه بتواند شوخی ظریفی بسازد، در اصل یک پایگاه داده‌ی عظیم از جوک‌های ساخته‌شده‌ی انسان و روش‌های ارزیابی عملکرد الگوریتم کفایت می‌کرد.

    اکنون ما، هم از پایگاه داده‌های کافی و هم از روش‌های ارزیابی برخورداریم. مدل‌های زبانی بزرگ (LLMs) امروزی با آموزش بر روی حجم عظیمی از داده‌ها از کتاب‌ها، مقالات و وب‌سایت‌هایی که خواندن آن‌ها هزاران برابر عمر یک انسان طول می‌کشد، الگوها و روابط بین کلمات و عبارات را می‌آموزند و به آن‌ها این امکان را می‌دهند که بر اساس متن، کلمه بعدی یک جمله را پیش‌بینی کنند. این پیشرفت، همراه با رویکردهای نوآورانه برای ارزیابی خروجی هوش مصنوعی با استفاده از یادگیری تقویتی (reinforcement learning) – تکنیکی که در آن یک عامل (agent) با تعامل با محیط، دریافت بازخورد به شکل پاداش و تنظیم اعمال خود برای به حداکثر رساندن آن پاداش‌ها یاد می‌گیرد – برای هدایت سیستم به سمت درست به کار رفته و نتایج خیره کننده‌ای به بار آورده است. درخواست چت‌جی‌پی‌تی (ChatGPT) زیر را توسط یک کاربر در نظر بگیرید: «فیلمنامه‌ی کامل یک صحنه از سریال ساینفیلد (Seinfeld) را بنویسید که در آن جری (Jerry) نیاز به یادگیری الگوریتم مرتب‌سازی حبابی (bubble sort) دارد.» برای دستیابی به این هدف، هوش مصنوعی از آموزش خود – مجموعه‌ی عظیمی از متون انسانی که به احتمال زیاد شامل فیلمنامه‌ها نیز می‌شد – برای شناسایی «ویژگی‌های» حیاتی یک «فیلمنامه‌ی ساینفیلد» استفاده کرد، به طوری که هوش مصنوعی در پاسخ خود، احتمالات بیشتری را به کلماتی که در فیلمنامه‌های سیت‌کام پیدا می‌کند، اختصاص می‌دهد. پاسخ نهایی چت‌جی‌پی‌تی صحنه‌ای را در کافه مونک (Monk’s Café) توصیف کرد که در آن جری از سختی یادگیری الگوریتم مرتب‌سازی حبابی شکایت می‌کند. هوش مصنوعی حتی یک شوخی هم به وجود آورد: در پاسخ به حرف جرج که «حتی یک میمون» هم می‌تواند الگوریتم مرتب‌سازی حبابی را یاد بگیرد، جری پاسخ می‌دهد: «خب، من یک میمون نیستم، من یک کمدین هستم.»

    ماشین‌های اجتماعی

    اگرچه هوش مصنوعی شاید به معنای پایان کار کمدین‌ها یا فیلمنامه‌نویسان نباشد، نسل جدید چت‌بات‌ها (chatbots) می‌توانند بسیاری از نقش‌هایی را برعهده بگیرند که پیش از این نیازمند هوش اجتماعی انسانی بود. آن‌ها می‌توانند زبان مذاکره‌کنندگان، کارگزاران املاک و مستغلات و کارگزاران بیمه را برای شناسایی کلمات و عبارات متقاعدکننده تجزیه و تحلیل کنند که منجر به نرخ تبدیل (conversion rate) بالاتری می‌شود. در همین حال، سیستم‌های تشخیص چهره می‌توانند احساسات انسان را از حالات چهره تشخیص دهند، درست مانند دستیارهای صوتی که می‌توانند الگوهای گفتار و لحن انسان را تشخیص دهند و به آن‌ها پاسخ دهند. در نتیجه، همانطور که در مقاله ۲۰۱۳ ما اشاره شد، مشاغل بازاریاب‌های تلفنی در بین مشاغلی قرار دارند که بیشترین خطر خودکار شدن را دارند.

    هوش ماشینی فراتر از ارتباط مبتنی بر متن عمل می‌کند. ایجاد «دیپ‌فیک» (deepfakes) از رهبران به‌ویژه متقاعدکننده‌ای مانند استیو جابز برای فروش هر چیزی، از آیفون گرفته تا کرم اصلاح، هم اکنون امکان‌پذیر است. فرض کنید متاورس (Metaverse) هرگز محقق نشود. تصور فروش‌های آنلاین پرانرژی آسان است، زیرا مصرف‌کننده‌ی تنها و انسانی توسط دوستان آواتاری احاطه شده است که دائماً آن‌ها را برای خرید محصولات ترغیب می‌کنند. درست مانند اینکه اگر همسایه‌تان یک بی‌ام‌و بخرد، شما بیشتر تمایل به خرید آن پیدا می‌کنید، چنین «دوستی‌های» آواتاری به عنوان محتمل‌ترین مدل کسب‌وکار برای متاورس به نظر می‌رسد. در این دنیا، واسطه‌ی انسانی خودکار خواهد شد. حتی خارج از متاورس، مفهوم اساسی صادق است: شرکت‌هایی مانند والمارت از هوش مصنوعی برای فعالیت‌های تجاری اجتماعی مانند مذاکره در مورد قیمت با فروشندگان استفاده می‌کنند. (۹)

    با این حال، گلوگاه‌های کلیدی (bottlenecks) در خودکارسازی کارهای اجتماعی همچنان وجود دارد. تعاملات حضوری همچنان ارزشمند هستند و به راحتی قابل جایگزینی نیستند، زیرا مدل‌های زبان بزرگ (LLMs) بدن ندارند. در واقع، در دنیایی که هوش مصنوعی در فضای مجازی برتری می‌یابد، ارتباط حضوری به طور فزاینده‌ای یک مهارت ارزشمند در مشاغل مدیریتی، حرفه‌ای و روبرو با مشتری خواهد بود. افرادی که قادر به ایجاد حضور فیزیکی قوی و برقراری روابط رودررو باشند که در آن دیگران را ترغیب و متقاعد کنند، در عصر هوش مصنوعی موفق خواهند شد. اگر نامه‌های عاشقانه نوشته‌شده توسط هوش مصنوعی شما دقیقاً مانند نامه‌های هر کس دیگری خوانده شود، بهتر است در قرار اول عملکرد خوبی داشته باشید.

    مشاغل اجتماعی را در نظر بگیرید که در آن‌ها متقاعدسازی اغلب حیاتی است. طبق تحقیقات اخیر، برخی از پزشکان در متقاعد کردن بیماران خود برای مصرف داروهای نجات‌دهنده بسیار موفق‌تر از دیگران هستند. (۱۰) به احتمال زیاد، این استعداد با اعتمادی که از طریق روابط شخصی شکل می‌گیرد، تقویت می‌شود. صنعت سرمایه‌گذاری جسورانه (venture capital) نیز به طور مشابه تحت تأثیر تعامل انسانی قرار می‌گیرد. هنگامی که این صنعت در طول همه‌گیری به دورکاری روی آورد، سرمایه‌گذاران برای جبران از دست دادن اطلاعاتی که معمولاً از طریق جلسات حضوری به اشتراک گذاشته می‌شد، به دنبال استفاده از شبکه‌های موجود خود و همکاری با شرکایی بودند که سابقه‌ی همکاری قبلی با آن‌ها داشتند. (۱۱) اهمیت اعتماد انسانی تنها با عملکرد مدل‌های زبان بزرگ (LLMs) تقویت می‌شود، همانطور که فیلمنامه‌ی سریال ساینفیلد تولیدشده توسط هوش مصنوعی به طور واضح نشان می‌دهد: هنگامی که Elaine به گارسونی که رد می‌شود، سالاد مرغ سفارش می‌دهد، به دلایل نامعلومی با «خنده‌ی تماشاگران» روبرو می‌شود. (۱۲) چت‌جی‌پی‌تی بدون درک عمیق طنز، آنچه باید یک فیلمنامه‌ی سیت‌کام به نظر برسد را کدگذاری کرده است. این ابزار صرفاً با یادگیری تقویتی از بازخورد انسانی برای پاداش دادن به صحبت کردن شبیه انسان، نوشته‌های موجود انسان را بازپیکربندی و تنظیم می‌کند.

    نتیجه‌ی این رویکرد تنها عملکرد ناقص نیست. مدل‌های زبانی بزرگ مستعد توهم‌زدن (hallucinations) – جعل محتوا و حتی منابع – هستند و حتی به عنوان «خارج شدن از مسیر» (going off the rails) نیز در نظر گرفته می‌شوند. هوش مصنوعی بارد (Bard) محصول گوگل در اولین ویدیوی نمایشی خود به اشتباه ادعا کرد که تلسکوپ فضایی جیمز وب «اولین عکس‌ها را از سیاره‌ای خارج از منظومه‌ی شمسی خود ما گرفت» – خطایی که منجر به کاهش چشمگیر قیمت سهام شرکت مادر گوگل، یعنی آلفابت شد. (۱۳) شاید نگران‌کننده‌تر اینکه، موتور جستجوی جدید مایکروسافت با هوش مصنوعی – که از GPT-4 شرکت OpenAI استفاده می‌کند – لیست بلندبالایی از رفتارهای هشداردهنده از خود نشان داد، از تلاش برای متقاعد کردن یک گزارشگر نیویورک‌تایمز برای پایان دادن به ازدواجش تا اعلام برخی از کاربران به‌عنوان «دشمنان» خود. (۱۴) بدتر از آن، چت‌جی‌پی‌تی به اشتباه یک استاد حقوق را در یک پرونده‌ی آزار جنسی متهم کرد، به نظر می‌رسد دلیل این امر سوءتفاهم ذرباره وابستگی‌های آماری اما بی‌اهمیت بین قطعات نامرتبط متن است.

    بسیاری از این مشکلات به سادگی با آموزش مدل‌های حتی بزرگ‌تر حل نخواهند شد – راه‌حل‌های سریعی وجود ندارد. با این حال، ممکن است محدوده‌ی بالای قابلیت‌های LLMها خیلی هم از مدل‌های فعلی فاصله نداشته باشد. از یک طرف، با توجه به حجم داده‌ای که LLMها قبلاً روی آن‌ها آموزش دیده‌اند، مشخص نیست که مجموعه‌های آموزشی بتوانند چندین برابر بزرگ‌تر شوند. همچنین بدیهی نیست که تعداد رایانه‌های اختصاص‌یافته به آموزش LLMها به طور قابل توجهی از تعداد فعلی بیشتر شود. ما به قانون مور (Moore’s law) عادت کرده‌ایم – اینکه تعداد ترانزیستورها در یک مدار مجتمع (IC) تقریباً هر دو سال یک‌بار دو برابر می‌شود – اما بسیاری انتظار دارند که این روند به دلیل محدودیت‌های فیزیکی تا حدود سال ۲۰۲۵ پایان یابد. آموزش LLMها نیز بسیار پرهزینه است (هزینه‌ی آموزش GPT-4 بیش از ۱۰۰ میلیون دلار بود) و با مدل‌های کسب‌وکار اثبات‌نشده، مشخص نیست که چه تعداد از شرکت‌ها برای انجام چنین سرمایه‌گذاری‌هایی در آینده مشتاق باشند.

    با این وجود، به نظر بعید می‌رسد که در آینده‌ی نزدیک، شرکت‌ها بخواهند روابط دیرینه‌ی خود با مشتریان را به هوش مصنوعی‌ای که به طور مرتب توهم می‌زند (hallucinating) بسپارند. به عنوان مثال، آمازون برای برندهای پیشرو مانند Nestlé SA و Procter & Gamble Co. یک مدیر حساب انسانی اختصاصی دارد، اما از هوش مصنوعی برای مدیریت قراردادهای کوچکتر که ممکن است در غیر این صورت ارزش صرف زمان را نداشته باشند، استفاده می‌کند. (۱۵) به عنوان یک قاعده کلی، هر چه یک رابطه بیشتر معاملاتی (transactional) باشد، بیشتر مستعد خودکار شدن است. با نگاه به آینده، انتظار داریم که بسیاری از مشاغل که شامل ارتباط حضوری نمی‌باشند – مانند بازاریاب‌های تلفنی، نمایندگان مسافرتی و اپراتورهای مرکز تماس – از بین بروند. اما، بدون جهش‌های قابل توجه، روابط دیرینه‌ای که از تعامل حضوری بهره می‌برند، در قلمرو انسان‌ها باقی خواهند ماند.

    خودکارسازی خلاقیت

    با توجه به نیاز به خلاقیت، بعید است که هوش مصنوعی در آینده‌ی قابل پیش‌بینی به طور کامل جایگزین ارتباط انسانی شود. دهه‌ها پیش، الگوریتم‌هایی وجود داشتند که کارهایی را تولید می‌کردند که می‌توان آن‌ها را «خلاقانه» نامید. از دهه‌ی ۱۹۷۰، برنامه‌ی طراحی AARON هزاران طرح خطی تولید کرد که بعداً در گالری‌های سراسر جهان به نمایش درآمد. در دهه‌ی ۲۰۰۰، نرم‌افزار EMI دیوید کوپ (David Cope) قبلاً در حال آهنگسازی در سبک‌های مختلف بود و ترکیبات ناآشنایی از ایده‌های آشنا ایجاد می‌کرد. هوش مصنوعی تولیدکننده‌ی امروزی، مانند EMI، اساساً ایده‌ها و آثار موجودی را که احساسات انسانی را به روش‌های ناآشنا برمی‌انگیزد، ترکیب می‌کند. اخیراً آهنگی تولیدشده توسط هوش مصنوعی که شبیه‌سازی رپ‌خوانی درآ Drake و The Weeknd بود، به صورت ویروسی درآمده است. (۱۶) نوامبر گذشته، یک توسعه‌دهنده‌ی نرم‌افزار از ChatGPT جدیداً عرضه‌شده‌ی OpenAI دستورالعمل‌هایی را با لحن کتاب مقدس King James Bible، برای خارج کردن ساندویچ کره بادام‌زمینی از یک دستگاه VCR درخواست کرد. چت‌بات LLM با این متن پاسخ داد: «و او به خداوند فریاد زد و گفت: ای خداوند، چگونه می‌توانم این ساندویچ را از دستگاه VCR خود بیرون بیاورم، زیرا گیر کرده است و تکان نمی‌خورد؟» به همراه شش پاراگراف خیره کننده‌ی دیگر. (۱۷) گرچه نویسندگی تأثیرگذار ممکن است باعث شود مو به تن شما سیخ شود، ChatGPT برای حل چالش‌هایی که برای آن در نظر گرفته شده بود، ایده‌های اصلی ارائه نکرد. در نهایت، این چت‌بات فروکردن چاقو بین ساندویچ و دستگاه VCR را پیشنهاد می‌کند – راه‌حلی که حتی یک کودک نوپا، که احتمالاً ساندویچ را با دست بیرون می‌کشید، آن را معیوب می‌داند. بدیهی است که ChatGPT درک مفهومی از نوشته‌ای که تولید می‌کند ندارد.

    سیستم‌های هوش مصنوعی تولیدکننده با موفقیت فوق‌العاده‌ای موسیقی یا متن مرتبط را بر اساس یک درخواست مشخص بازآرایی و ترکیب می‌کنند. اما دستور دادن به یک الگوریتم برای تولید صدای Drake و The Weeknd به خلاقیت شگفت‌انگیزی نیاز ندارد. ترکیب دوباره‌ی موتسارت و شوبرت، موسیقی به سبک آرو پرت (Arvo Pärt) را تولید نمی‌کند؛ به همین ترتیب، دستور دادن به هوش مصنوعی برای تولید ترکیبی از نقاشی‌های امپرسیونیستی، منجر به جهش جسورانه‌ای به هنر مفهومی جدید نمی‌شود. برای مثال، در حالی که نمی‌دانیم مارسل دوشان (Marcel Duchamp) چگونه به ایده‌ی «فواره» – یک لگن چینی توالت که از یک فروشگاه محلی لوله‌کشی خریداری شده و به عنوان مجسمه به نمایش گذاشته شده است – رسید، مطمئناً با تجزیه و تحلیل مجموعه‌ای از نقاشی‌های امپرسیونیستی نبوده است. دوشان لگن‌های چینی توالت را در دنیای واقعی دیده بود و فرم هنری‌ای که اختراع کرد، آن‌ها را عمداً در نوری کاملاً متفاوت قرار داد.

    همان‌طور که اگر  الگوریتم‌ها در دنیای واقعی تعامل نداشته باشند، داده‌هایی که روی آن‌ها آموزش دیده‌اند در مقایسه با تجربیات انسانی محدود خواهند بود. برای مثال، اگرچه مردم دائماً عکس می‌گیرند، اما تصاویر اندکی از افرادی که به صورت آنلاین عکس می‌گیرند وجود دارد. اینکه آیا برای درک دنیا به بدن نیاز است، همانطور که برخی از پژوهشگران استدلال می‌کنند، مطمئناً مورد مناقشه است، اما محدودیت‌های یادگیری از کتاب برای همه ما شناخته شده است. (۱۸)

    مهم‌تر از همه، حتی اگر الگوریتم‌ها بتوانند دنیای واقعی را مانند انسان‌ها تجربه کنند، دوشان چه نوع دستوری برای تولید «فواره»ی خود می‌داد؟ در حالی که ترکیبات منحصر به فرد از سبک‌های از پیش موجود ممکن است ارزش تجاری قابل توجهی در موسیقی، فیلم یا طراحی داخلی ایجاد کند، اما به احتمال زیاد باعث می‌شود ما به جای ایجاد پیشرفت‌های اساسی، بر روی تنظیم ایده‌های موجود تمرکز کنیم. در واقع، یک آزمایش crowdsourcing اخیر که انسان‌ها را در مقابل هوش مصنوعی قرار داد، نشان داد که در حالی که این الگوریتم راه‌حل‌هایی با ارزش مالی بالقوه بالا ارائه می‌کرد، این راه‌حل‌ها به طور کلی از راه‌حل‌های ارائه شده توسط همتایان انسانی‌شان کمتر بدیع بودند. (۱۹) برای دستیابی به پیشرفت‌های بنیادی، تعریف خروجی مطلوب بسیار دشوارتر است. تصادفی نیست که هوش مصنوعی در کارهایی با هدف بهینه‌سازی شناخته‌شده، مانند امتیاز در یک بازی ویدیویی، عملکرد بهتری دارد. با این حال، اگر هدف تولید چیزی کاملاً جدید باشد، برای چه چیزی بهینه‌سازی می‌کنید؟

    بازی تخته‌ای استراتژیک Go را در نظر بگیرید، جایی که تابع پاداش (reward function) نسبتاً ساده است. در اینجا، هوش مصنوعی در سال ۲۰۱۶ پیروز شد و قهرمان Go جهان، لی سئول (Lee Sedol) را در یک مسابقه پنج بازی با نتیجه‌ی چهار بر یک شکست داد و در عین حال حرکات جدیدی را نیز ارائه کرد. سئول پس از آن بازنشسته شد و گفت: «حتی اگر من شماره یک شوم… یک وجودی وجود دارد که شکست‌ناپذیر است.» اما امسال، انسان‌ها بازگشتی شگفت‌انگیز و غیرمنتظره داشتند. همانطور که مشخص شد، هوش مصنوعی مبتنی بر یادگیری عمیق (deep learning) تمام مفاهیمی را که انسان‌ها استفاده می‌کنند، مانند اهمیت گروه‌های مهره در Go را درک نمی‌کند. یک آماتور انسان با بهره‌گیری از تاکتیک‌های جدیدی که هوش مصنوعی قبلاً در آموزش در معرض آن‌ها قرار نگرفته بود، توانست هوش مصنوعی را به طور قانع‌کننده‌ای شکست دهد، هرچند با کمک رایانه.

    این به این معنی است که امروز ما هرگز نمی‌توانیم کاملاً مطمئن باشیم که آیا هوش مصنوعی را می‌توان در شرایط جدید، مانند تغییر تاکتیک، که عنصری مهم در خلاقیت انسانی است، به طور قابل اعتمادی استفاده کرد.

    بنابراین، به نظر می‌رسد که پیشرفت‌های تدریجی از طریق تنظیمات الگوریتمی، مجموعه داده‌های گسترده‌تر و پارامترهای بیشتر، برای خلاقیت نقطه‌ی عطفی نخواهند بود. این درک پیامدهای گسترده‌ای برای آینده‌ی کار دارد، به خصوص زمانی که الگوریتم‌ها با دنیای فیزیکی تعامل دارند، که همانطور که خواهیم دید، صنعت خودروهای خودران را با مشکل مواجه کرده است.

    تناقض مورآوک

    در سال ۱۹۸۸، هانس مورآوک (Hans Moravec) اشاره کرد که «ایجاد عملکردی در سطح بزرگسالان برای رایانه‌ها در آزمون‌های هوش یا بازی د checkers (پادشاه مهره‌ها) نسبتاً آسان است، در حالی که دادن مهارت‌های یک کودک یک ساله به آن‌ها در زمینه درک یا تحرک دشوار یا غیرممکن است.» (۲۱) این چالش امروزه نیز همچنان مرتبط است. مسئله کمبود پیشرفت در خودکارسازی کارهای دستی نیست، بلکه این است که چنین پیشرفتی به توانایی انسان‌ها در تصور روش‌های هوشمندانه‌ی بازسازی کار برای امکان خودکارسازی آن بستگی دارد. برای مثال، ما با اختراع ربات‌هایی که قادر به تکرار دقیق رویه‌های دستی صنعتگران قرون وسطی بودند، مشاغل آن‌ها را خودکار نکردیم. در نهایت، در محیط کارخانه‌ای ساختاریافته، کار صنعتگران را به وظایف تکراری تقسیم کردیم و آن‌ها را به تدریج و تک تک خودکار کردیم. همچنین با ساخت ربات‌هایی که توانایی حمل نردبان و بالا رفتن از تیر چراغ برق را داشته باشند، شغل روشن کردن چراغ‌ها را خودکار نکردیم. از این رو، همانطور که بسیاری از اقتصاددانان انجام داده‌اند، تلاش برای ارزیابی اینکه آیا کاری با صرفاً ارزیابی بخش‌هایی از وظایف که ماشین‌ها می‌توانند انجام دهند قابل خودکارسازی است، منجر به برآوردهای نادرستی می‌شود: شما ناگزیر نتیجه می‌گیرید که کار روشن کردن چراغ‌ها، کارگران مزرعه، آسانسورچی‌ها، کارواش ماشین، اپراتورهای سوئیچ‌برد و رانندگان کامیون قابل خودکارسازی نیستند. با این حال، تاریخ خلاف این را به ما نشان داده است. (۲۲)

    همانطور که قابل پیش‌بینی بود، استقرار وسایل نقلیه خودران به محیط‌های نسبتاً ساختاریافته مانند بنادر، معادن و انبارها محدود شده است. همانطور که در مقاله ۲۰۱۳ خود استدلال کردیم، میزان پذیرش ربات‌ها و وسایل نقلیه خودران همچنان به نبوغ مهندسان در بازپیکربندی محیطی که فناوری در آن کار می‌کند بستگی خواهد داشت. استفاده‌ی آمازون رباتیک (Amazon Robotics) از استیکرهایی برای هدایت ربات‌ها در اطراف انبارها، و همچنین پیشبرد ساخت‌وپیش ساخته (prefabrication) در ساخت و ساز، که در آن بخش‌هایی از سازه در کارخانه به جای محل ساخته می‌شوند، نمونه‌هایی از این دست هستند. درست است که پیشرفت‌های اخیر در هوش مصنوعی ممکن است با کاهش برخی نگرانی‌های درک (perception)، دامنه‌های استقرار احتمالی وسایل نقلیه خودران را نیز گسترش دهد. برای اینکه یک الگوریتم به طور مناسب به محیطی که با آن در تعامل است پاسخ دهد، به نوعی «درک» از اشیایی که ممکن است با آن‌ها مواجه شود نیاز دارد. به عنوان مثال، یک ماشین بدون راننده چگونه به یک آدم‌برفی که وسط جاده ایستاده است پاسخ می‌دهد؟ بهبود در بینایی کامپیوتر (computer vision) در این زمینه ممکن است مهم باشد – برای نمونه، پیشرفت‌ها در زمینه‌های عصبی تابش (Neural Radiance Fields – NeRF) ممکن است با تولید داده‌های مصنوعی – داده‌های تولیدشده به صورت مصنوعی – برای آموزش کارآمدتر وسایل نقلیه خودران، شبیه‌سازی آسان‌تر صحنه‌های سه بعدی را تسهیل کند. (۲۳) اما این رویکرد درمان قطعی نیست: داده‌های مصنوعی به ناچار محصول داده‌های خود NeRF و مفروضات ضمنی آن خواهند بود که برای مفید بودن داده‌های مصنوعی باید معتبر باشند. اگر فرضیات و داده‌های NeRF برخی ملاحظات مهم دنیای واقعی را نادیده بگیرند، داده‌های مصنوعی آن نیز چنین خواهند بود.

    در حالی که امروزه LLMها (مدل‌های زبان بزرگ) به طور گسترده مورد توجه قرار می‌گیرند، صنعت خودروهای خودران به دلیل عدم تحقق وعده‌های اولیه‌اش اغلب مسخره می‌شود. با این حال، همانطور که آزمایش‌های متعدد تاکسی‌های خودران در شهرهایی از سانفرانسیسکو تا شنژن نشان می‌دهد، وسایل نقلیه خودران نیز پیشرفت قابل توجهی در سال‌های اخیر داشته‌اند.

    علاوه بر مقدار داده‌های آموزشی موجود، یک تفاوت اساسی بین صنعت خودروهای خودران و LLMها این است که مردم به طور کلی و به ویژه در اماکن عمومی، نسبت به ورود الگوریتم‌ها به دنیای فیزیکی بسیار ریسک‌گریز هستند. همانطور که اشاره شد، LLMها مستعد توهم‌زایی (hallucination) هستند. با این حال، به نظر می‌رسد عواقب ساختن منابع (references) برای یک مقاله توسط ChatGPT در مقایسه با عواقب بالقوه‌ی ویرانگر توهم‌زایی یک ماشین خودران در ترافیک، ناچیز باشد. در حالی که احتمالاً متن و تصاویر جعلی قابل ویرایش یا حذف هستند، حوادث مرگبار ترافیکی قابل برگشت نیستند. این موضوع نکته‌ی گسترده‌تری را برجسته می‌کند: هوش مصنوعی – در شکل فعلی‌اش – به احتمال کمتری در زمینه‌های با ریسک بالاتر مانند رانندگی نسبت به فعالیت‌های با ریسک پایین‌تر مانند خدمات مشتری یا انبارها مستقر می‌شود. توانایی تحمل اشتباه، گره‌خورد اصلی خودکارسازی کارهایی است که به درک (perception) و تحرک (mobility) وابسته هستند. مدل‌های بنیادین مبتنی بر شبکه‌های عصبی عمیق (deep neural networks) که تصمیماتی می‌گیرند که ما نمی‌توانیم آن‌ها را توضیح دهیم، پتانسیل ایجاد اشتباه‌های زیادی را دارند. برای استقرار گسترده در فضاهای فیزیکی، به هوش مصنوعی قدرتمند، قابل اعتماد و قابل توضیح نیاز خواهیم داشت. (۲۴) بنابراین، مشاغلی که بر وظایف پیچیده درک و دستکاری متمرکز هستند، از خودکارسازی نسبتاً در امان هستند – نتیجه‌گیری مشابهی که در سال ۲۰۱۳ به آن رسیدیم.

    مقرون به صرفه بودن اشتباهات، گره‌خورد اصلی خودکارسازی وظایف وابسته به درک و تحرک است.

    آینده‌ی کار

    گفته می‌شود فیزیکدان نیلز بور (Niels Bohr) زمانی به شوخی گفته است که «خداوند مسائل آسان را به فیزیکدانان واگذار کرد.» (۲۵) در حالی که قوانین فیزیک در طول زمان ثابت هستند و در سراسر زمان و فضا اعمال می‌شوند، شرایط مرزی در علوم اجتماعی جاودانه نیستند. همین امر برای مهندسی نیز صادق است که به طور پیوسته ابزارهای ما را برای خودکارسازی کار در حوزه‌هایی که قبلاً غیرقابل تصور بود، گسترش داده است و پیامدهای جدید و غیرقابل پیش‌بینی برای کارگران و جامعه به طور کلی به همراه دارد. موانع قابل توجهی برای ادامه‌ی خودکارسازی وجود دارد، اما همچنین واضح است که اکنون الگوریتم‌ها می‌توانند کارهایی را انجام دهند که بسیار فراتر از آنچه در مقاله ما ده سال پیش مشاهده کردیم، است.

    به کارهایی با نیاز به هوش اجتماعی فکر کنید که در سال ۲۰۱۳ آن‌ها را غیرقابل خودکارسازی می‌دانستیم. هوش مصنوعی اکنون ممکن است بتواند جایگزین نیروی کار انسان در بسیاری از تنظیمات مجازی شود، به این معنی که اگر یک کار از راه دور قابل انجام باشد، می‌تواند به صورت خودکار نیز انجام شود. مشکل این است که هوش مصنوعی تولیدکننده همچنان مستعد توهم‌زایی است و این ریسکی برای شهرت شرکت‌هایی است که از آن استفاده می‌کنند. با توجه به این خطر، انتظار داریم که شرکت‌ها عمدتاً از هوش مصنوعی برای فعالیت‌های تراکنشی (transactional) که روابط بلندمدت با مشتری ایجاد نمی‌کنند، استفاده کنند، در حالی که تعاملات حضوری برای ایجاد اعتماد همچنان مهم خواهد بود.

    هوش مصنوعی تولیدکننده همچنین ممکن است در کارهای خلاقانه نقشی داشته باشد، اما برای ایجاد دنباله‌ها به جای روایت‌های جدید مناسب‌تر است. هوش مصنوعی ممکن است بتواند یک داستان دیگر از بتمن بنویسد (البته بدون دخالت انسان، احتمالاً این داستان کسل‌کننده و پر از حفره خواهد بود)، اما نمی‌تواند فیلم «مهر هفتم» (The Seventh Seal) را از ابتدا خلق کند. هوش مصنوعی در ایجاد ترکیبات جدید از ایده‌های موجود به جای جهش‌های مفهومی مهارت دارد. بنابراین، استقرار هوش مصنوعی تولیدکننده بر گسترش خطوط تولید موجود به جای ایجاد خطوط کسب و کار کاملاً جدید متمرکز خواهد شد.

    در نهایت، در مورد کارهای درک‌محور (perception tasks)، به احتمال زیاد خودکارسازی همچنان بر محیط‌های ساختاریافته تمرکز خواهد کرد، جایی که مهندسان می‌توانند محیط را برای امکان خودکارسازی بازطراحی و ساده‌سازی کنند. دلیل این امر ساده است: در زمینه‌های با ریسک بالا مانند خدمات تحویل خودکار، تعداد رویدادهای نادری که یک هوش مصنوعی ممکن است با آن‌ها مواجه شود (که به احتمال زیاد در داده‌های آموزشی گنجانده نشده‌اند) به سادگی بسیار زیاد است. در حال حاضر، استقرار هوش مصنوعی به فعالیت‌های با ریسک پایین‌تر مانند خدمات مشتری – برای مثال Amazon Go – یا انبارداری خودکار محدود خواهد شد.

    به طور خلاصه، طی یک دهه گذشته، دامنه‌ی بالقوه‌ی خودکارسازی گسترش یافته و شامل بسیاری از تعاملات اجتماعی مجازی می‌شود. همین امر در مورد کارهای خلاقانه‌ای که بر ترکیب مجدد ایده‌های موجود متمرکز هستند نیز صادق است. علاوه بر این، پیشرفت‌های صورت‌گرفته در بینایی رایانه (computer vision) راه را برای خودکارسازی فعالیت‌های درک بیشتری هموار کرده است. با این حال، علیرغم این پیشرفت‌ها، موانع اساسی همچنان مانع از کاربرد خودکارسازی در محیط‌های با ریسک بالا می‌شوند.

    هوش مصنوعی و تاثیرات آن بر بازار کار

    میانگین توانایی‌های هوش مصنوعی به نوبه‌ی خود بر بازار کار تأثیرگذار است. طبق تحقیقات اخیر، توسعه‌دهندگان نرم‌افزاری که به «کوپایلوت» گیت‌هاب (GitHub’s Copilot) دسترسی داشتند، ۵۶ درصد سریع‌تر از گروه کنترل، کار را به اتمام رساندند و توسعه‌دهندگان با تجربه‌ی کمتر برنامه‌نویسی، بیشترین پیشرفت را نشان دادند. (۳۰) به طور مشابه، نشان داده شده است که چت‌گپت (ChatGPT) بهره‌وری نویسندگان، به ویژه آن‌هایی که توانایی‌های پایین‌تری دارند، را در تکمیل وظایف ارتقا می‌دهد. (۳۱) در میان کارگزاران خدمات مشتری که به دستیار مبتنی بر هوش مصنوعی دسترسی پیدا کردند، بهره‌وری ۱۴ درصد افزایش یافت و باز هم کارآموزان و کارگران کم‌مهارت بیشتر از آن بهره‌مند شدند. (۳۲) این بدان معناست که افراد بسیار بیشتری می‌توانند «به طور مناسب» شغل را انجام دهند. درست همانطور که اوبر موانع ورود به خدمات تاکسی را کاهش داد، افراد بیشتری در کارهای خلاقانه شرکت خواهند کرد. چت‌گپت جایگزین روزنامه‌نگاران نخواهد شد، همانطور که کوپایلوت گیت‌هاب جایگزین برنامه‌نویسان نمی‌شود. اما آن‌ها این کارها را برای تازه‌کاران آسان‌تر می‌کنند و باعث رقابت بیشتر می‌شوند. به عبارت دیگر، هوش مصنوعی تولیدکننده به نویسندگان، طراحان و مدیران تبلیغاتی معمولی کمک می‌کند تا رقبای ماهرتر خود را تضعیف کنند.

    سوالی که مطرح می‌شود این است که با ارزان‌تر شدن تولید محتوا توسط هوش مصنوعی تولیدکننده، مردم چقدر بیشتر محتوا مصرف خواهند کرد؟ از نظر ما، این تا حدودی شبیه به پرسیدن این سوال است که اگر نتفلیکس ارزان‌تر بود و محتوای بهتری داشت، چقدر زمان بیشتری را صرف آن می‌کردید؟ پاسخ احتمالاً به اندازه‌ی زیادی نخواهد بود – طول روز همچنان محدود است. وفور شدید محتوا با زمان و توجه محدود انسان رقابت خواهد کرد. در عوض، احتمالاً مردم این محتوای باکیفیت‌تر را جایگزین محتوای عمومی کنند. در نتیجه، بسیاری از تولیدکنندگان محتوای فعلی به احتمال زیاد شاهد فشار فزاینده‌ای بر دستمزد خود خواهند بود، در حالی که بسیاری از تازه‌کارانی که از مشاغل کم‌درآمدتر وارد این حوزه می‌شوند، درآمد خود را افزایش خواهند داد.

    هوش مصنوعی تولیدکننده، علیرغم مزایایی که برای بسیاری از کارگران دارد و باعث جابجایی گسترده شغلی نمی‌شود، به طور قابل توجهی بازار کار را مختل خواهد کرد.

    بنابراین، هوش مصنوعی تولیدکننده، با وجود مزایایی که برای بسیاری از کارگران دارد و باعث جابجایی گسترده شغلی نمی‌شود، به طور قابل توجهی بازار کار را مختل خواهد کرد. این آشفتگی به احتمال زیاد به صورت ناآرامی‌های اجتماعی بروز پیدا می‌کند.

    به اعتراضات رانندگان تاکسی در لندن در زمان معرفی اوبر فکر کنید که خیابان‌ها را مسدود کردند، یا رانندگان فرانسوی که در مقاومت خود به اقدامات افراطی مانند واژگون کردن خودروها و آتش زدن لاستیک‌ها متوسل شدند. این اعتراضات مانع پذیرش این فناوری در برخی مناطق از جمله آلمان شد.

    علاوه بر این، کارمندان حرفه‌ای (white-collar workers) که فشار هوش مصنوعی را احساس می‌کنند، از نظر سیاسی تأثیرگذارتر از همتایان یقه‌آبی (blue-collar workers) خود هستند که طی دهه‌های گذشته با معرفی ربات‌ها در کارخانه‌ها، شاهد اختلالات تکنولوژیکی بوده‌اند. نمونه‌ای قدرتمند از این موضوع، اعتصاب مشترک فیلمنامه‌نویسان و بازیگران هالیوود علیه استفاده از هوش مصنوعی تولیدکننده است که منجر به تعطیلی تولیدات تلویزیونی و سینمایی شد – اولین اعتصاب جمعی این صنعت در بیش از شصت سال. بازیگران و فیلمنامه‌نویسان، مانند سایر کارمندان حرفه‌ای، موقعیت بهتری برای مقاومت در برابر فناوری‌هایی دارند که معیشت آن‌ها را تهدید می‌کند و صحنه را برای درگیری‌های احتمالی که ممکن است پذیرش گسترده هوش مصنوعی تولیدکننده را کند کند، آماده می‌سازند.

    آینده‌ی هوش مصنوعی: آیا ساده‌سازی کارها مقدمه‌ای برای خودکارسازی کامل است؟

    برای درک بهتر، دوباره به فانوس‌داران (lamplighters) توجه کنید. پیش از ظهور برق، فانوس‌داران با حمل مشعل و نردبان، چراغ‌های گازی را در شب روشن می‌کردند و خیابان‌های شهرها و شهرک‌های آمریکا را روشن نگه می‌داشتند. در ابتدا، ورود چراغ‌های برق خیابان را به سادگی آسان‌تر کرد. هر چراغ یک کلید داشت که به صورت دستی روشن و خاموش می‌شد. تأثیر چراغ‌های برق شبیه به تأثیر هوش مصنوعی تولیدکننده بود، چرا که روشن کردن چراغ را آنقدر ساده کرد که فانوس‌داران به زودی با رقابت بیشتری روبرو شدند. حتی بچه‌ها هم به راحتی می‌توانستند در مسیر رفتن به مدرسه، چراغ‌ها را روشن و خاموش کنند. اما دیری نپایید که کنترل چراغ‌های خیابان از طریق ایستگاه‌های فرعی (substations) صورت گرفت و تقاضا برای فانوس‌داران به شدت کاهش یافت. (۳۳)

    آیا می‌توانیم چنین «لحظه‌ی ایستگاه فرعی» (substation moment) را برای هوش مصنوعی تولیدکننده پیش‌بینی کنیم؟ پاسخ به این سوال اجتناب‌ناپذیر حدس و گمان است، اما از نظر ما، این اتفاق به زودی رخ نخواهد داد. چنین تغییری نیازمند پیشرفت‌های تکنولوژیکی جدیدی است. همانطور که قبلاً ذکر شد، داده‌های مصرفی LLM‌ها در حال حاضر قابل توجه است و افزایش چشمگیر مجموعه‌های آموزشی به میزان زیادی امکان‌پذیر نیست. علاوه بر این، دلایل موجهی برای پیش‌بینی انباشته شدن محتوای کم‌کیفیت تولیدشده توسط هوش مصنوعی در اینترنت وجود دارد که وب را به منبعی به طور فزاینده نامناسب برای داده‌های آموزشی تبدیل می‌کند. در واقع، نشانه‌های اخیر حاکی از آن است که محتوایی که الگوریتم‌ها از آن یاد می‌گیرند، یکنواختی بیشتری را نشان می‌دهد. برای مثال، در حوزه موسیقی، به نظر می‌رسد که میانگین خلاقیت از زمان ظهور رایانه‌ها کاهش یافته است، که در کاهش تغییرات کلیدی در طول دهه‌ها مشهود است. به همین ترتیب، به نظر می‌رسد که نوشتار انسان بیشتر مبتنی بر قواعد، فرمول‌بندی‌شده و مکانیکی است که منجر به ورودی کم‌تنوع‌تر برای یادگیری الگوریتم‌های هوش مصنوعی می‌شود.

    راه‌هایی برای ایجاد داده‌های جدید وجود دارد، مانند استفاده از NeRFها برای شبیه‌سازی‌ها (همانطور که قبلاً گفته شد) یا به سادگی با ایجاد داده‌های مصنوعی مانند متن یا کد. (۳۵) برای مثال، در توسعه‌ی AlphaFold – سیستمی که در پیش‌بینی ساختار سه‌بعدی پروتئین‌ها عملکرد فوق‌العاده‌ای داشت و حتی در مسابقاتی مانند CASP (ارزیابی بحرانی پیش‌بینی ساختار) از محققان انسان پیشی گرفت – DeepMind بخشی از پیش‌بینی‌های خود مدل را در داده‌های آموزشی گنجاند، و بدین ترتیب مجموعه داده را گسترش داد. اما در نهایت، این کار در وهله‌ی اول به داشتن مجموعه‌ی داده‌ی عظیمی از ساختارهای شناخته‌شده‌ی پروتئین از منابع در دسترس عموم مانند بانک اطلاعاتی پروتئین (PDB) وابسته بود. (۳۶) در حال حاضر، بدون وجود داده‌های موجود، راه‌حل‌های جایگزین اندکی وجود دارد.

    علاوه بر این، مهم است به خاطر داشته باشیم که AlphaFold به طور خاص برای یک کار خاص ساخته شده است و یک فناوری چندمنظوره نیست. در رابطه با LLMها، تحقیقات انجام‌شده توسط آکسفورد و کمبریج نشان داده است که داده‌های مصنوعی می‌توانند باعث آسیب‌های جبران‌ناپذیر و در نتیجه‌ی آن خرابی مدل شوند. (۳۷)

    این درست است که تنظیم دقیق و یادگیری تقویتی از بازخورد انسان (RLHF) می‌تواند توانایی هوش مصنوعی تولیدکننده را برای بهبود بیشتر تقویت کند. مدل خروجی خود را با پاسخ‌های انسان تنظیم می‌کند و در نهایت با گذشت زمان یاد می‌گیرد. اما RLHF به یک کار پرکار تبدیل می‌شود؛ تحقیقات اخیر توسط مجله‌ی تایم (TIME) نشان داد که OpenAI بخشی از این کار را به کارگران کنیایی با درآمد کمتر از ۲ دلار در ساعت واگذار کرده است. (۳۸) حتی برخی نشانه‌ها حاکی از آن است که اثربخشی LLMها در ماه‌های اخیر کاهش یافته است. یک تفسیر این است که تعامل با کاربران باعث بدتر شدن این سیستم‌ها شده است، که نشان می‌دهد RLHF در شکل فعلی خود به مانعی برخورد کرده است. (۳۹)

    در همین حال، مطالعات دیگر نشان می‌دهد که میزان قضاوت‌های اشتباه‌آمیز شبیه انسان از ۱۸ درصد در GPT-3 به ۳۳ درصد در GPT-3.5 و به ۳۴ درصد در GPT-4 افزایش یافته است، حتی با وجود اینکه این مدل در قضاوت‌های صحیح شبیه انسان بهتر عمل کرده است. این مشاهده نشان می‌دهد که LLMهای بزرگ‌تر و پیچیده‌تر ممکن است تمایل به ارتکاب اشتباهاتی مشابه با اشتباهات انسان داشته باشند. (۴۰)

    با این حال، ما انتظار داریم که با شروع کسب‌وکارها به استفاده از مدل‌های بنیادی مانند GPT-4 و استفاده از مجموعه داده‌های تخصصی‌تر برای کارهای خاص، در کوتاه‌مدت شاهد بهبودهای حاصل از تنظیم دقیق باشیم. به عنوان مثال، شرکت‌هایی که یک ربات خدمات مشتری را آموزش می‌دهند، داده‌هایی از پرسش‌های واقعی مشتریان خواهند داشت که نمونه‌هایی از پاسخ‌های مؤثر را ارائه می‌دهد، درست مانند شرکت‌های داروسازی که داده‌هایی برای امکان تنظیم دقیق به سمت کشف دارو خواهند داشت. این رویکرد یک روش مقرون‌به‌صرفه برای تطبیق یک مدل ازپیش آموزش‌دیده برای یک استفاده خاص ارائه می‌دهد. با این حال، این تنظیم دقیق همچنان به بسیاری از مشکلات اساسی هوش مصنوعی که به آن‌ها اشاره کرده‌ایم نمی‌پردازد.

    زمانی که مقاله ما در سال ۲۰۱۳ منتشر شد، حوزه‌ی هوش مصنوعی نسبتاً متنوع بود و روش‌های گوناگونی را در بر می‌گرفت. با این حال، از آن زمان به بعد، تمرکز به سمت روش‌هایی با نیاز به نیروی محاسباتی و داده‌ی گسترده، مانند یادگیری عمیق، تغییر پیدا کرده است. این تمرکز محدود، بدون شک منجر به پیشرفت‌های ملموسی شده است، اما به نظر ما، به احتمال زیاد با بازده‌ی کاهشی مواجه خواهد شد. از یک سو، هوش مصنوعی تولیدکننده همچنان تمایل به تولید خروجی‌های اشتباه‌آمیز یا تخیلی دارد و بدون نوآوری‌های بیشتر، مشکل توهم‌زایی (hallucinations) همچنان باقی خواهد ماند. بنابراین، فراتر از پیشرفت‌های ذکر شده در بالا، به صرف مقیاس‌بندی مدل‌های موجود، بعید به نظر می‌رسد که حوزه‌ی بالقوه‌ی خودکارسازی به طور قابل توجهی رشد کند. (۴۱)

    نتیجه‌گیری

    در پایان، در حالی که انتظار داریم هوش مصنوعی همچنان ما را شگفت‌زده کند و بسیاری از مشاغل را (در صورت عدم وجود پیشرفت‌های چشمگیر) خودکار کند، همچنین انتظار داریم موانعی که در مقاله ۲۰۱۳ خود شناسایی کردیم، در آینده‌ای قابل پیش‌بینی، امکانات خودکارسازی را محدود کنند.

    یادداشت‌ها

    1. این موضوع در مورد رکود بزرگ نیز صادق بود. نگاه کنید به مقاله Alexander J. Field با عنوان «فناورانه‌ترین دهه‌ی قرن» منتشر شده در مجله‌ی American Economic Review، شماره‌ی ۴، جلد ۹۳ (سال ۲۰۰۳): صفحات ۱۳۹۹-۱۴۱۳.
    2. کارل بی. فری و مایکل ای. آزبورن، «آینده‌ی اشتغال: مشاغل تا چه حد در برابر رایانه‌ای شدن آسیب‌پذیر هستند؟»، پیش‌بینی‌های فناورانه و تغییر اجتماعی، شماره‌ی ۱۱۴ (سال ۲۰۱۷): صفحات ۲۵۴-۲۸۰. اولین نسخه‌ی پیش‌نویس این مقاله در سال ۲۰۱۳ منتشر شد.
    3. ایان گودفلو و همکاران، «شبکه‌های مولدِ متخاصم» (Generative Adversarial Networks)، مجله‌ی Communications of the ACM، شماره‌ی ۱۱، جلد ۶۳ (سال ۲۰۲۰): صفحات ۱۳۹-۱۴۴. این مقاله در سال ۲۰۱۴ به عنوان پیش‌نویس منتشر شد.
    4. OpenAI، گزارش فنی GPT-4 (سال ۲۰۲۳). https://cdn.openai.com/papers/gpt-4.pdf
    5. کالین جی. وست، «پیشرفت‌ها در استدلال فیزیک مفهومی آشکار در GPT-4»، ArXiv 2303، شماره‌ی ۱۷۰۱۲ (سال ۲۰۲۳).
    6. منابع داده‌ای که LLMها با آن‌ها آموزش داده شده‌اند، برای دنیای خارج ناشناخته باقی مانده است.
    7. جوزف وایزنبوم، «ELIZA – یک برنامه‌ی رایانه‌ای برای مطالعه‌ی ارتباط زبان طبیعی بین انسان و ماشین»، مجله‌ی Communications of the ACM، شماره‌ی ۱، جلد ۹ (سال ۱۹۶۶): صفحات ۳۶-۴۵. اليزا (ELIZA) یکی از اولین چت‌بات‌های شناخته‌شده است.
    8. کال نیوپورت، «ChatGPT چه نوع ذهنی دارد؟»، نیویورکر، ۲۳ آوریل ۲۰۲۳.
    9. دانیلا سرتوری-کورتینا و برندن کیس، «والمارت از هوش مصنوعی برای مذاکره در مورد بهترین قیمت با برخی از فروشندگان استفاده می‌کند»، بیزنس‌ویک، ۲۶ آوریل ۲۰۲۳.
    10. امیلیا سیمئونووا، نیلز اسکیپر و پیتر آر. تینگ‌هولم، «مهارت‌های مدیریت سلامت پزشک و نتایج بیمار»، مجله‌ی Journal of Human Resources، شماره‌ی ۴، جلد ۵۸ (سال ۲۰۲۲).
    11. لیودمیلا آلکسکایوا و همکاران، «از حضوری به آنلاین: شکل جدید صنعت سرمایه‌گذاری خطرپذیر» (پیش‌نویس، دانشکده‌ی بازرگانی IESE، ۲۰۲۲).
    12. کال نیوپورت، «ChatGPT چه نوع ذهنی دارد؟»، نیویورکر، ۲۳ آوریل ۲۰۲۳.
    13. جیمز وینسنت، «ربات چت‌بات بارد گوگل در اولین نمایش، اشتباه واقعی کرد»، ورج، ۸ فوریه ۲۰۲۳.
    14. کوین روس، «گفتگو با چت‌بات بینگ مرا عمیقاً پریشان کرد»، نیویورک تایمز، ۱۷ فوریه ۲۰۲۳.
    15. دانیلا سرتوری-کورتینا و برندن کیس، «والمارت از هوش مصنوعی برای مذاکره در مورد بهترین قیمت با برخی از فروشندگان استفاده می‌کند»، بیزنس‌ویک، ۲۶ آوریل ۲۰۲۳.
    16. جو کاسکارلی، «یک هوش مصنوعی با جعل آهنگ‌های «دریک» و «آخر هفته» دنیای موسیقی را تکان داد»، نیویورک تایمز، ۱۹ آوریل ۲۰۲۳.
    17. کال نیوپورت، «ChatGPT چه نوع ذهنی دارد؟»، نیویورکر، ۲۳ آوریل ۲۰۲۳.
    18. آرتور گلنبرگ و کامرون جونز، «برای درک جهان به یک بدن نیاز است – چرا ChatGPT و سایر هوش مصنوعی‌های زبان نمی‌دانند چه می‌گویند»، کانورسیشن، ۶ آوریل ۲۰۲۳.
    19. لئونارد بوسیوکس، «آینده‌ی بدون جمعیت؟ چگونه هوش مصنوعی تولیدکننده در حال شکل‌دهی به آینده‌ی برون‌سپاری جمعی انسان است؟» (پیش‌نویس، دانشکده‌ی بازرگانی هاروارد، ۲۰۲۳)، http://dx.doi. org/10.2139/ssrn.4533642.
    20. ریچارد واترز، «انسان در بازی Go از ماشین برنده شد، پیروزی انسان بر هوش مصنوعی»، فایننشیال تایمز، ۱۷ فوریه ۲۰۲۳.
    21. هانس موراوک، «فرزندان ذهن: آینده‌ی هوش ربات و انسان» (کمبریج: انتشارات دانشگاه هاروارد، ۱۹۸۸).
    22. کارل بی. فری، «تله‌ی تکنولوژی: سرمایه، کار و قدرت در عصر خودکارسازی» (پرینستون: انتشارات دانشگاه پرینستون، ۲۰۱۹).
    23. جاناتان تی. بارون و همکاران، «Zip-NeRF: میدان‌های تابش عصبی شبکه‌ای مبتنی بر شبکه‌ی ضدنا aliasing» (۲۰۲۳)، [invalid URL removed].
    24. گری مارکوس، «دهه‌ی آینده در هوش مصنوعی: چهار گام به سوی هوش مصنوعی قوی»، ArXiv، شماره‌ی ۰۶۱۷۷ (۲۰۲۰).
    25. کارل بی. فری، «تله‌ی تکنولوژی: سرمایه، کار و قدرت در عصر خودکارسازی» (پرینستون: انتشارات دانشگاه پرینستون، ۲۰۱۹).
    26. دیوید اوتور و همکاران، «مرزهای جدید: خاستگاه و محتوای کار جدید، ۱۹۴۰-۲۰۱۸» (پیش‌نویس، دفتر ملی پژوهش‌های اقتصادی، ۲۰۲۲)، https://www.nber.org/system/files/working_papers/w30389/w30389.pdf؛ تور برگر، کارل بی. فری، «آیا انقلاب رایانه‌ای باعث تغییر سرنوشت شهرهای ایالات متحده شد؟ شوک‌های فناوری و جغرافیای مشاغل جدید»، علوم منطقه‌ای و اقتصاد شهری، ۵۷ (۲۰۱۶): ۳۸-۴۵؛ تور برگر، کارل بی. فری، «بازسازی صنعتی در قرن ۲۱: شواهدی از شهرهای ایالات متحده»، مطالعات منطقه‌ای، ۵۱، شماره‌ی ۳ (۲۰۱۷): ۴۰۴-۴۱۳.
    27. جان جامپر و همکاران، «پیش‌بینی ساختار پروتئین با دقت بالا با AlphaFold»، Nature 596، شماره‌ی ۷۸۷۳ (۲۰۲۱): ۵۸۳-۵۸۹.
    28. کارل بی. فری، «تله‌ی تکنولوژی: سرمایه، کار و قدرت در عصر خودکارسازی» (پرینستون: انتشارات دانشگاه پرینستون، ۲۰۱۹)؛ همچنین نگاه کنید به دارون آسم‌اوغلو، پاسکوال رسترپو، «مسابقه‌ی بین انسان و ماشین: پیامدهای فناوری برای رشد، سهم عوامل و اشتغال»، مجله‌ی بررسی‌های اقتصادی آمریکا ۱۰۸، شماره‌ی ۶ (۲۰۱۸): ۱۴۸۸-۱۵۴۲.
    29. تور برگر، چینچی چن و کارل بندیکت فری، «محرک‌های اختلال؟ برآورد اثرگذاری اوبر»، بررسی اقتصادی اروپا ۱۱۰ (۲۰۱۸): ۱۹۷-۲۱۰.
    30. سیدا پنگ و همکاران، «تأثیر هوش مصنوعی بر بهره‌وری توسعه‌دهندگان: شواهدی از GitHub Copilot» (کمبریج: دانشکده‌ی مدیریت اسلون، MIT، ۲۰۲۳).
    31. شاکد نوی و ویتنی ژانگ، «شواهد تجربی در مورد اثرات بهره‌وری هوش مصنوعی تولیدکننده» (پیش‌نویس، شبکه‌ی تحقیقات علوم اجتماعی، ۲۰۲۳)، https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4375283.
    32. اریک برینجولفسون، دانیل لی و لیندزی آر. ریموند، «هوش مصنوعی تولیدکننده در محل کار» (پیش‌نویس، دفتر ملی پژوهش‌های اقتصادی، ۲۰۲۳)، http://www.nber.org/papers/w31161.
    33. کارل بی. فری، «تله‌ی تکنولوژی: سرمایه، کار و قدرت در عصر خودکارسازی» (پرینستون: انتشارات دانشگاه پرینستون، ۲۰۱۹).
    34. ایان لزلی، «مبارزه برای انسان بودن»، رافین، ۱۰ دسامبر ۲۰۲۲، https://www.ian-leslie.com/p/the-struggle-to-be-human.
    35. برای نمونه‌هایی از داده‌های مصنوعی، به مقاله «چرا از داده‌های کامپیوتری برای آموزش مدل‌های هوش مصنوعی استفاده می‌شود؟» نوشته‌ی مادومیتا مورگیا در فایننشیال تایمز، ۱۹ جولای ۲۰۲۳ مراجعه کنید.
    36. جان جامپر و همکاران، «پیش‌بینی ساختار پروتئین با دقت بالا با AlphaFold»، Nature 596، شماره‌ی ۷۸۷۳ (۲۰۲۱): ۵۸۳-۵۸۹.
    37. ایلیا شومایلو و همکاران، «نفرین بازگشت: آموزش بر روی داده‌های تولید شده باعث فراموشی مدل‌ها می‌شود»، ArXiv 2305، شماره‌ی ۱۷۴۹۳ (۲۰۲۳).
    38. بیلی پریگو، «اختصاصی: اوپن‌ای‌آی از کارگران کنیایی با دستمزدی کمتر از ۲ دلار در ساعت برای کاهش سمیت ChatGPT استفاده کرد»، مجله‌ی تایم، ۱۸ ژانویه ۲۰۲۳.
    39. لینگجیائو چن، ماتئی زاهاریا و جیمز زو، «رفتار ChatGPT چگونه با گذشت زمان در حال تغییر است؟»، ArXiv 2307، شماره‌ی ۰۹۰۰۹ (۲۰۲۳).
    40. فیلیپ کورالوس و وینسنت وانگ-ماشیانیکا، «انسان‌ها در انسان‌ها بیرون: در مورد همگرایی GPT به سمت عقل سلیم در هر دو موفقیت و شکست»، ArXiv 2303، شماره‌ی ۱۷۲۷۶ (۲۰۲۳).
    41. توهمات زمانی قابل رفع هستند که معیارهای روشنی از حقیقت وجود داشته باشد. به عنوان مثال، آیا یک مرجع تولید شده توسط LLM واقعاً وجود دارد؟ الگوریتم می‌تواند به سادگی آن را در وب جستجو کند. اما در بیشتر موارد، چنین معیارهای مستقیمی وجود ندارد.
    • مقاله بیلی پریگو در مورد اتهامات سوء استفاده اوپن‌ای‌آی از کارگران کنیایی برای آموزش ChatGPT به منظور کاهش سمی بودن آن است.
    1. کاهش سمی بودن در هوش مصنوعی به معنای کاهش احتمال تولید محتوای مضر توسط مدل‌های هوش مصنوعی است. این محتوای مضر می‌تواند شامل موارد زیر باشد:
    2. متن توهین‌آمیز یا تبعیض‌آمیز:مدل‌های هوش مصنوعی ممکن است متنی تولید کنند که به افراد یا گروه‌های خاصی توهین می‌کند یا آن‌ها را مورد تبعیض قرار می‌دهد.
    3. اطلاعات نادرست یا گمراه‌کننده:مدل‌های هوش مصنوعی ممکن است اطلاعات نادرست یا گمراه‌کننده تولید کنند که می‌تواند به مردم آسیب برساند.
    4. محتوای خشونت‌آمیز یا نفرت‌انگیز:مدل‌های هوش مصنوعی ممکن است محتوای خشونت‌آمیز یا نفرت‌انگیز تولید کنند که می‌تواند برای مردم آزاردهنده یا مضر باشد.
    5. کاهش سمیت در هوش مصنوعی یک موضوع مهم است زیرا مدل‌های هوش مصنوعی به طور فزاینده‌ای در زندگی روزمره ما استفاده می‌شوند. این مدل‌ها برای تولید متن، ترجمه زبان‌ها، نوشتن خلاقانه و انجام وظایف دیگر استفاده می‌شوند. اگر این مدل‌ها محتوای مضر تولید کنند، می‌تواند به افراد و جوامع آسیب برساند.
    6. راه‌های مختلفی برای کاهش سمیت در هوش مصنوعی وجود دارد:
    7. آموزش مدل‌ها با داده‌های باکیفیت:مدل‌های هوش مصنوعی باید با داده‌هایی آموزش داده شوند که عاری از محتوای مضر باشد.
    8. استفاده از تکنیک‌های فیلتر کردن:می‌توان از تکنیک‌های فیلتر کردن برای حذف محتوای مضر از محتوای تولید شده توسط مدل‌های هوش مصنوعی استفاده کرد.
    9. نظارت بر مدل‌ها:مدل‌های هوش مصنوعی باید به طور منظم برای اطمینان از عدم تولید محتوای مضر رصد شوند.
    10. کاهش سمیت در هوش مصنوعی یک چالش مداوم است، اما با تلاش‌های مداوم، می‌توانیم مدل‌های هوش مصنوعی را ایمن‌تر و مسئول‌تر کنیم.
    • مقاله لینگجیائو چن، ماتئی زاهاریا و جیمز زو به بررسی تغییرات رفتار ChatGPT در طول زمان می‌پردازد.
    • مقاله فیلیپ کورالوس و وینسنت وانگ-ماشیانیکا به بررسی تمایل GPT به سمت عقل سلیم در هر دو موفقیت و شکست می‌پردازد.

    لینک مقاله:

    توییتر کارل بندیکت فری:
    https://twitter.com/carlbfrey

    توییتر Michael A. Osborne:
    https://twitter.com/maosbot