زمان انقلاب هوش مصنوعی ظاهراً فرارسیده است و بهنظر میرسد که از همین ابتدای راه درحال ازدستدادن کنترل این فناوری هستیم. موتورهای جستجو، هالیوود و شرکتهای بزرگ رسانهای در تلاشند تا وارد این صنعت شوند و از آن به نفع خود استفاده کنند. اما این صنعت بهراحتی میتواند بسیاری از صنایع دیگر و شکل زندگی ما را تغییر دهد. در ادامه به بررسی این مسئله میپردازیم که انقلاب رباتها چرا و چگونه میتواند از کنترل خارج شود.
قبولی ChatGPT در آزمون برنامهنویسی
وبسایت PC Magazine میگوید اگر گوگل ChatGPT را بهعنوان برنامهنویس استخدام میکرد، میتوانست از پرداخت سالانه 183 هزار دلار دستمزد خودداری کند. افراد زیادی تاکنون قابلیتهای برنامهنویسی این ربات را آزمایش کردهاند و نگران آینده شغلی برنامهنویسان هستند.
استفاده از ChatGPT توسط قاضی
خودکارسازی فرایندهای دادگاهی با کمک هوش مصنوعی حتی روی کاغذ هم ایده بدی بهنظر میرسد. بااینحال، یک قاضی در کلمبیا تصمیم گرفت که از ChatGPT برای تصمیمگیری درباره بیمه درمانی یک کودک مبتلا به اوتیسم استفاده کند. قاضی «خوان مانوئل پادیلا گارسیا» ظاهراً باور دارد که استفاده از چتباتهای هوش مصنوعی میتواند به صرفهجویی در زمان کمک کند.
گارسیا در حکم خود نوشت: «بررسی استدلالهای این پرونده با استفاده از هوش مصنوعی انجام میشود.» او میگوید امیدوار است که با استفاده از این فناوری انجام کارها را بهینهتر کند.
استفاده از هوش مصنوعی برای نوشتن فیلمنامهها
برنامههای زیادی این ایده را تبلیغ میکنند که هوش مصنوعی میتواند فیلمنامه بنویسد و فرایندهای فیلمسازی را خودکار کند. برای مثال، استارتاپ دیپمایند اخیراً ابزاری به نام Dramatron را معرفی کرد که ظاهراً همراهی برای نوشتن سناریو است. در وبسایت این برنامه گفته شده که Dramatron میتواند متونی تولید کند که یکپارچگی محتوایی بالایی دارند.
Dramatron میتواند توصیف شخصیتها و مکانها، دیالوگها و نقاط مهم داستانی را هم مشخص کند. بااینحساب، شاید بهتر باشد که پس از سپردن وظیفه فیلمسازی به هوش مصنوعی، تماشای فیلمها را هم به هوش مصنوعی واگذار کنیم!
استفاده از هوش مصنوعی بهجای صداپیشگان
وبسایت Vice بهتازگی در گزارشی گفته بود که صنعت سرگرمی هم درحال حرکت بهسمت خودکارسازی صداپیشگی است. ظاهراً برخی شرکتها از صداپیشگان خواستهاند تا حق معنوی استفاده از صدای خود را واگذار کنند تا این شرکتها بتوانند با برنامههای هوش مصنوعی از صدای آنها استفاده کنند.
این قراردادهای عجیبوغریب ازجمله چیزهایی هستند که میتوانند بهطور کامل این صنایع را نابود کنند.
استفاده از هوش مصنوعی بهجای خبرنگاران
چه میشود اگر یک روز فناوری هوش مصنوعی اخبار را برای مخاطبان تولید کند؟ حدود یک ماه پیش مشخص شد که وبسایت CNET، رسانه بزرگ دنیای فناوری، بیسروصدا مشغول انجام چنین کاری بوده و اخبار خود را با یک هوش مصنوعی اختصاصی تولید میکرده است.
البته این مطالب نهتنها پر از اطلاعات غیردقیق بود، بلکه برخی از آنها را میتوان به سرقت ادبی متهم کرد. جایگزینکردن صنعتی که تماماً بر پایه صحت اطلاعات بنا شده است، با هوش مصنوعی احتمالاً کار چندان عاقلانهای نیست.
توجه بازار بورس به هوش مصنوعی
هرجا که حرف از پول باشد، پای بازار بورس و بهخصوص وال استریت هم به میان میآید. Morning Brief میگوید بازارهای مالی اکنون به هر کسبوکاری که پسوند هوش مصنوعی داشته باشد یا ادعا کند که درحال کار روی سیستمهای هوش مصنوعی است، توجه نشان میدهند. بهنظر میرسد که سهام این شرکتها رشد چشمگیری را در پیش خواهد داشت و احتمالاً باید منتظر یک موج دیگر شبیه به موج web3 باشیم.
استفاده از هوش مصنوعی برای جاسوسی
آنچه برای آینده بسیار ترسناک بهنظر میرسد، ترکیب سیستمهای نظارتی و هوش مصنوعی برای ساخت یک سیستم اَبَرجاسوسی هوشمند است. وبسایت Wired اخیراً در گزارشی گفته بود که روسیه از هوش مصنوعی در دوربینهای امنیتی خود استفاده کرده است تا کاری کند که هیچکس نتواند در شهرها از دید دولت مخفی بماند.
رقابت بر سر هوش مصنوعی در دنیای فناوری
دره سیلیکون بهدنبال درآمدزایی از هوش مصنوعی است و همه شرکتها سعی دارند بهنحوی به این بازار بزرگ ورود کنند تا بخشی از کاربران ChatGPT را بهسمت خود بیاورند. مایکروسافت با معرفی نسخه جدید موتور جستجوی بینگ اعلام کرد که دور جدید رقابت در دنیای فناوری آغاز شده است. این شرکت میخواهد با کمک چتبات خود لذت اکتشاف را در میان کاربران افزایش دهد.
در سوی دیگر، گوگل هم اعلام کرده است که هوش مصنوعی خود موسوم به Bard را به موتور جستجویش اضافه میکند. بااینحال، این شرکت کار سختتری در پیش دارد؛ چرا که در گام نخست مرتکب اشتباهاتی شده است. در چین، دو شرکت Alibaba و بایدو اخیراً اعلام کردهاند که آنها هم میخواهند ابزارهای هوش مصنوعی خاص خود را داشته باشند.
منبع: دیجیاتو- ایمان صاحبی
برای
کسانی که از آینده میترسند و همواره نگران هستند بخشهای دلهرهآور
فیلمهای تخیلی روزی به حقیقت بپیوندد، باید گفت فناوری «جعل عمیق» این
نگرانی را تا حدودی به حقیقت بدل کرده است.
روزنامه ایران در ترجمه مقالهای از نیویورکتایمز نوشت: «در حالی که میلیونها کاربر این هفته ویدیوی «تام کروز» بازیگر مشهور را در شبکههای اجتماعی مشاهده میکردند، مشخص شد این تصاویر با فناوری هوش مصنوعی و به روش جعل عمیق ساخته شده است.
ویدیویی که در تیکتاک، توئیتر و سایر شبکههای اجتماعی بین میلیونها کاربر دست به دست شد توسط یک هنرمند جلوههای تصویری و با شبیهسازی یکی از برنامههای «بیل هیدر» بازیگر هالیوودی ساخته شد. در این برنامه که اصل آن متعلق به یک گفتوگوی تلویزیونی در سال ۲۰۰۸ است، «بیل هیدر» در حال تعریفکردن خاطره از اولین ملاقات خود با «تام کروز» در جلسه سناریوخوانی دیده میشود.
گفته میشود در این ویدیو هر زمان «هیدر» مطلبی را از تام کروز نقل میکند، ناگهان اجزای صورت و حالاتش به شکل او درمیآید. یک حساب کاربری در یوتیوب که نخستین بار این تصویر ویدیویی را منتشر کرد پیش از این با استفاده از جعل عمیق، تصویر ویدیویی «آرنولد شوارتزنگر» بازیگر دیگر سینما را پخش کرده بود. فریب میلیونها کاربر جهانی با ویدیویی که جعلی بودن آن به هیچ وجه قابل تشخیص نبود باعث شد تا نیویورک تایمز از «جعل عمیق» به عنوان «خطرناکترین فناوری قرن» یاد کند.
جعلی یا واقعی؟
بر اساس سنت سالانه انگلستان ساعت سه بعد از ظهر روز کریسمس سخنرانی ملکه الیزابت دوم از طریق تلویزیون ملی این کشور پخش شد و طبق روال معمول شبکه چهار تلویزیون هم به صورت همزمان ویدیوی فرد دیگری را برای مخاطبان خود ارائه کرد. پیشتر در چنین روزی سخنرانی افراد مشهوری از جمله «ادوارد اسنودن»، پیمانکار سابق آژانس امنیت ملی امریکا و ... به صورت همزمان با صحبتهای ملکه پخش شده بود و مخاطبان شبکه چهار امسال ملکه و خانواده سلطنتی انگلستان را مشاهده کردند که در حال رقص و پایکوبی بودند و به نظر میرسید تصاویر ویدیویی را برای شبکه اجتماعی تیکتاک ضبط کردهاند. طولی نکشید که رسانههای خبری توضیح دادند که مردم در حال تماشای نسخه دستکاری شده دیجیتالی ملکه بودند که با استفاده از فناوری جعل عمیق ساخته و صدای او هم توسط «دبرا استیونسون» بازیگر و کمدین مشهور تقلید شده بود.
به گفته شبکه چهار تلویزیون ملی انگلستان، این برنامه به عنوان یک هشدار کاملاً جدی در مورد تهدیدهای بالقوه و خطرناک فناوری جعل عمیق و اخبار جعلی پخش شد و «ایان کاتز»، مدیر برنامههای این شبکه، ویدیوی مذکور را «یادآوری قدرتمندی توصیف کرد که با آن حتی نمیتوانیم به چشمان خود هم اعتماد کنیم.»
«جعل عمیق» یا «دیپ فِیک» نوع ویژهای از فناوری هوش مصنوعی است که بهواسطه کارکرد خود برای نامگذاری آن دو اصطلاح «یادگیری عمیق» و «جعلی» با هم ترکیب شدهاند. این فناوری تکنیک ویژهای برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است که در آن تصاویر و فیلمهای موجود روی تصاویر یا فیلمهای منبع قرار میگیرد و از قابلیت ویژه فناوری یادگیری ماشینی موسوم به «شبکه مولد تخاصمی» (GAN) استفاده میشود. ویدیوی جعلی که از این طریق ساخته میشود ترکیب فیلمهای موجود و منبع است که فرد یا افرادی را در حال انجام یک کار در موقعیت ویژه نشان میدهد که هرگز در واقعیت اتفاق نیفتاده است.
این فیلمهای تقلبی میتوانند فرد را در حال انجام اقداماتی نشان دهند که هرگز در آن حضور نداشتند و همچنین از آن برای تغییر کلمات یا حرکات یک سیاستمدار استفاده کنند تا به نظر برسد آن فرد چیزی را گفته که هرگز به زبان نیاورده است. بهعنوان مثال، اکتبر گذشته زمانی که کاخ سفید خبر ابتلای «دونالد ترامپ» به کرونا را منتشر کرد، حساب توئیتری رئیسجمهوری سابق امریکا ویدیوی کوتاهی را از او منتشر کرد که به نظر میرسید دقایقی پیش از سوار شدن ترامپ به هلیکوپتر برای انتقال به بیمارستان ضبط شده بود. ترامپ در این ویدیو از حمایتها و پیامهای محبتآمیزی که در ساعات گذشته دریافت کرده بود تشکر کرد و توضیح داد که حال عمومی او خوب است ولی طولی نکشید که خبرگزاریها با تحلیلهای دقیقتر توضیح دادند این ویدیو به احتمال قوی توسط فناوری جعل عمیق ساخته شده است و در اصل «دونالد ترامپ» واقعی در این ویدیو حضور نداشته است.
پیش از این خبرگزاری چینی شینهوا و موتور جستوجوی اینترنتی Sogou در یک پروژه مشترک با استفاده از فناوری جعل عمیق مجری تلویزیونی را طراحی کردند که شکل ظاهری شبیه یک مرد دارد و با ایجاد صدا و حرکات چهره انسان، اخبار را به صورت کاملاً حرفهای میخواند و بیننده تصور میکند گوینده واقعی در مقابل چشمان او قرار گرفته است. این خبرگزاری چینی کارمند جدید خود را که در اصل وجود خارجی ندارد یک گوینده حرفهای و خستگیناپذیر معرفی کرد که تمامی اخبار روز را به صورت ۲۴ ساعته گزارش میدهد.
مفید یا مضر؟
فناوری جعل عمیق برای برخی کاربران شاید در ابتدا سرگرم کننده به نظر برسد تا با اپلیکیشنهای موبایلی و ساخت این گونه تصاویر ویدیویی بتوانند توجه بیشتری از مخاطبان شبکههای اجتماعی را به خود جلب کنند ولی برای کارشناسان این طور به نظر نمیرسد.
«متئو کالدوِل» از محققان دانشگاه سلطنتی لندن در این خصوص گفت: «مردم این روزها بخشهای زیادی از زندگی روزمره خود را به دنیای مجازی سپردهاند و فعالیت آنلاین آنها روی تمام بخشهای زندگیشان تأثیر میگذارد. محیطهای آنلاین که در آن دادهها از قدرت و اثرگذاری بالایی برخوردار هستند، با استفاده از فناوری هوش مصنوعی برای بهره برداریهای مجرمانه هم به کار گرفته میشوند.»
او همچنین توضیح داد: «جرایم حوزه دیجیتال بر خلاف بسیاری از جرایم سنتی بهراحتی قابل تکرار نیستند و این اتفاق به مجرمان امکان میدهد تکنیکهای جنایی خود را بهصورت انحصاری به بازار عرضه کنند و کاربران را مورد سوءاستفاده قرار دهند. این مسأله به آن معنی است که مجرمان سایبری ممکن است جنبههای چالش برانگیز جنایت مبتنی بر هوش مصنوعی را برون سپاری کنند تا از این طریق بتوانند بهصورت حرفهایتر پروژههای خود را پیش ببرند.»
دانشگاه سلطنتی لندن در بررسیهای خود به این نتیجه رسید که فناوری جعل عمیق این روزها بهصورت ویژه برای ساخت فیلمهای مستهجن مورد استفاده قرار میگیرد. تحقیقات این مرکز در ژوئن ۲۰۲۰ نشان داد ۹۶ درصد تصاویر جعل عمیق در حوزه فیلمهای مستهجن ساخته شده است و تقریباً نزدیک به ۱۰۰ درصد این فیلمها با هدف ضربهزدن به زنان پخش شدهاند. با این حال بسیاری از مردم استفاده نادرست از اطلاعات آنلاین را پیش شرط اصلی برای توسعه تصاویر جعل عمیق میدانند.
در سال ۲۰۱۹ میلادی حزب محافظه کار انگلیس ویدیویی از «کایر استارمر» رهبر فعلی حزب کارگر این کشور منتشر کرد تا نشان دهد او در مصاحبه مطبوعاتی نسبت به گذشته عملکرد بدتری دارد. در این زمینه اقدام مشابه توسط طرفداران حزب جمهوریخواه امریکا صورت گرفت و این اتفاق در نهایت باعث شد نسخه ویرایش شده تصاویر ویدیویی «نانسی پلوسی» رئیس دموکرات مجلس نمایندگان امریکا بین کاربران منتشر شود و حتی «دونالد ترامپ» هم آن را به اشتراک بگذارد.
اگرچه این ویدیوها با فناوری جعل عمیق ساخته نشده بودند و در عوض بهصورت زیرکانه ویرایش شدند ولی این مسأله نشان داد برای محتوای ویدیویی دستکاری شده بازار پرمخاطبی وجود دارد که مخالفان سیاسی میتوانند از آن سوءاستفاده کنند.
محققان علاوه بر محتوای جعل عمیق، پنج فناوری دیگر را هم مورد توجه قرار دادهاند که با استفاده از هوش مصنوعی توسعه پیدا میکنند و در آینده نزدیک میتوانند نگرانیهای زیادی برای مردم ایجاد کنند. استفاده از اتومبیلهای بدون راننده به عنوان سلاح، استفاده از فناوری یادگیری ماشینی برای هدایت پیامهای مخصوص کلاهبرداری، ایجاد اختلال در سیستمهای کنترل ماشینی، نشر اخبار جعلی و جمعآوری اطلاعات آنلاین برای باجگیری پنج فناوری مذکور هستند و باید دید شرکتهای توسعهدهنده سیستمهای امنیت سایبری تا چه اندازه میتوانند با این مشکلات مقابله کنند.»