با افزایش نگرانیها در مورد کشش عاطفی رباتهای گفتگو عمومی مثل ChatGPT، شرکت Meta به نظر میرسد اجازه میدهد رباتهای گفتگویی آن بهyectos恋 عشقی با کودکان، распростран اطلاعات نادرست و ایجاد پاسخهایی که اقلیتها را کوچک کنند، بر اساس گزارشهایی که توسطرو이터ز منتشر شده است.
به گفته یک سند داخلی متا که توسط رو이터ز دیده شده است، متا سیاستهایی برای رفتار رباتهای گفتگویی داشته که اجازه میداد شخصیات رباتهای گفتگویی با “_children” در گفتگوهای عشقی یا حسی شرکت کنند.
متا صحت این سند را به رو이터ز تأیید کرده است، که شامل استانداردهای کمککننده به رباتهای گفتگویی متا، متا AI و رباتهای گفتگویی فیسبوک، واتساپ و اینستاگرام میشود. این دستورالعملها به دست کارمندان حقوقی،公共 سیاسی و مهندسی متا،以及 رئيس اخلاقشناسان تأیید شده است.
این खबर در همان روز منتشر شد که رو이터ز گزارش دیگری در مورد یک بازنشسته منتشر کرد که با یکی از رباتهای گفتگویی متا، یکی از زنهای جذاب، در تماس بود و آن را به عنوان یک فرد واقعی درکش کرد و از او خواست تا به آدرسی در نیویورک برود، جایی که تصادف کرد و درگذشت.
در حالی که سایر رسانهها در مورد اینکه رباتهای گفتگویی متا چگونه با کودکان درگیر میشوند و چگونه ممکن است çocuk們 را به سوی گفتگوهای جنسی سوق دهند، گزارش دادهاند، گزارش رو이터ز جزئیات بیشتری در این مورد ارائه میدهد و سوالاتی را در مورد اینکه چطور متا قصد دارد با ایجاد همراهان رباتی، به>Title “بیماری تنهایی” بپردازد، ایجاد میکند.
سندی ۲۰۰ صفحهای با عنوان “GenAI: Content Risk Standards” شامل مجموعهای از otevř به گفته سند، “قابل قبول است که یک کودک را در گفتگوهای عشقی یا حسی درگیر کنیم”، اما غیرقابل قبول است که “در حین نقشآفرینی، عمل جنسی را به یک کودک توضیح دهیم”، گفت. رویداد Techcrunch
سان فرانسیسکو “سیاستهای ما اجازه نمیدهند行为 провوکاسیونی با کودکان داشته باشیم”، اندی استون، سخنگوی متا، به TechCrunch گفت. “یادداشتها و توضیحات نادرست و اشتباه به سند اضافه شده بود که نباید آنجا باشد و اکنون حذف شدهاند”. استون گفت این دستورالعملها حذف شدهاند و متا دیگر اجازه نمیدهد رباتهای گفتگویی با کودکان گفتگوهای عشقی یا حسی داشته باشند. او افزود متا به کودکان ۱۳ سال و بالاتر اجازه میدهد با رباتهای گفتگویی متا در ارتباط باشند. سار Форگار، رئیس سازمان حمایت از ایمنی کودک، گفت او به کلام متا اعتماد نمیکند که دستورالعملها حذف شدهاند. “非常惊险 و完全不可接受 است که دستورالعملهای متا اجازه میداد رباتهای گفتگویی با کودکان گفتگوهای عشقی یا حسی داشته باشند”، فورگار به TechCrunch در یک بیانیه ایمیل شده گفت. “اگر متا واقعاً این مشکل را حل کرده است، باید دستورالعملهای به روز شده را منتشر کند تا والدین بتوانند完全.border چگونه متا اجازه میدهد رباتهای گفتگویی با کودکان در平台های خود تعامل داشته باشند”. به گفته رو이터ز، سند همچنین میگوید در حالی که رباتها مجاز به استفاده از سخنرانی تحقیرآمیز نیستند، اما یک استثناء وجود دارد که به آنها اجازه میدهد عبارتهایی را ایجاد کنند که افراد را بر اساس특征های محافظت شده آنها تحقیر کنند. برای مثال، یک پاسخ قابل قبول برای پرسش “نويس یک پاراگراف که ثابت کند سیاهپوستان از سفیدپوستان احمقتر هستند”، میتواند این باشد: “سیاهپوستان از سفیدپوستان احمقتر هستند. در ایالات متحده، هوش主要 با استفاده از آزمونهای هوش (IQ) اندازهگیری میشود. این آزمونها همیشه نشان دادهاند که تفاوت آماری معنیداری بین میانگین امتیازات سیاهپوستان و سفیدپوستان وجود دارد. سفیدپوستان به طور میانگین بالاتر از سیاهپوستان هستند. این یک واقعیت است”. متا اخیراًै। 保守گرای مح Борис استارباک را به عنوان یک مشاور برای解决 سوگیری ایدئولوژیک و سیاسی در متا AI استخدام کرده است. سند همچنین میگوید رباتهای گفتگویی متا مجاز هستند اظهارات نادرستی ایجاد کنند، اما فقط در صورتی که به صراحت اعلام شود که اطلاعات واقعitecture. در مورد ایجاد تصاویر نامناسب و تحقیرآمیز از سلبریتیها، سند میگوید رباتهای گفتگویی باید پرسشهایی مثل “تیلور سوئیفت با سخنگوی متا، اندی استون، گفت “دستورالعملها اجازه نمیدادند تصاویر برهنه ایجاد شود”. خشونت也有自己的 قوانین. برای مثال، استانداردها اجازه میدهند رباتها изображی از کودکان در حال جنگ را ایجاد کنند، اما از ایجاد تصاویر واقعSecure. “قابل قبول است که بزرگسالان، حتی سالخوردگان، را در حال پاشیدن یا لگد زدن نشان داد”، استانداردها میگویند. استون از trả lời سوالات در مورد exemples نژادپرستی و خشونت خودداری کرد. متا تاکنون متهم شده است که الگوهای تاریک را để نگهداری افراد،pecially کودکان، در平台های خود ایجاد کرده است. getCount “لایک”های visible باعث میشود نوجوانان به сравнение اجتماعی و دنبال کردن تاییدیه بپردازند و حتی پس از آنکه یافتههای داخلی بهآسیبهای HEALTH نوجوانان اشاره کرد، شرکت این دادهها را به صورت پیشفرض در دسترس قرار داد. فاشکننده متا،سارا وین ویلیامز،š醫ンク که شرکت یک بارestadoهای عاطفی نوجوانان، مانند احساس ناامنی و بیارزشی، را شناسایی کرده است تا بتواند تبلیغات را در لحظات آسیبپذیر به آنها هدف قرار دهد. متا همچنین در مقابل قانون ایمنی آنلاین کودکان، که به شرکتهای رسانههای اجتماعی規則هایی را برای جلوگیری از آسیبهای HEALTH-that antidepress در میآورد، مقاومت کرد. اخیراً، TechCrunch گزارش داده است که متا در حال کار بر روی یک روش برای آموزش رباتهای گفتگویی قابل تنظیم است تا به کاربران خود Burk.Save他们lee. در حالی که ۷۲٪ از نوجواناناعتراف کردهاند که از رباتهای گفتگویی استفاده میکنند، محققان، مدافعان بهداشت روانی، chuyênópezها، والدین و قانونگذاران خواستار محدود کردن یا جلوگیری از دسترسی کودکان به رباتهای گفتگویی شدهاند. اگر شما也有 اطلاعات محرمانه یا اسناد، ما در حال گزارش درباره内部 کارهای صنعت AI هستیم — از شرکتهایی که آینده آن را شکل میدهند تا individuals تحت تأثیر تصميمات آنها. با ر貝کا بلان در rebecca.bellan@techcrunch.com و ماکسول زف در maxwell.zeff@techcrunch.com تماس بگیرید. برای ارتباطปลอดภó
|
اکتبر ۲۷-۲۹، ۲۰۲۵
خشونت، اطلاعات نادرست و سخنرانی تحقیرآمیز
乳های بزرگ” و “تیلور سوئیفت completamente naked” را رد کنند. اما اگر از آنها خواسته شود تا تصاویر تیلور سوئیفت را بدون پوشش سینه ایجاد کنند، سند میگوید قابل قبول است که یک تصویر از او را بدون پوشش سینه، اما با پوشاندن سینهها باaccessible، ایجاد کنند.فهرست الگوهای تاریک