
由|有一组SOHU技术| Zhang Ying编辑| Jin最近,AI情感伴侣“佛教岛”应用程序的腾讯文学已接触到涉及小调和其他内容的色情播放。当用户清楚地通知他们他们已经10岁了时,AI内容仍然会发送大尺寸。随后,中国的上海网络空间管理召集了周蒙岛,并要求立即进行更正。在召唤之前,Dream Island青年模式需要积极的用户。三天前,Dream Island的更新版本。登录新版本时,该应用将具有“年龄确认”弹出窗口。该平台在18岁以下,将在青少年模式下提供青春期;如果您年满18岁,则需要对平台进行真正的Peeran验证。 “目前叫朱云岛,揭示了同伴AI情感应用的秘密角落。模式,他们不必经过Auth登录后的真实姓名或其他身份验证机制。未成年人实现模式使用完整功能非常简单,需要遵守集成行业以建立积极有效的价值和良好的价值
一些用户认为软件具有较小的模型,未成年人仍在播放(成人模型),这应该与父母对纪律的忽视有关。一些用户还认为,这些应用程序应限制与成人用户相比,次要代理的创建。
人工智能在奖学金中包括在情感上
自去年年底以来,关于未成年人的AI地块中有关螃蟹情节中的螃蟹情节的新闻一直在出现。就在今年年初,一些媒体报道说:“一个10岁的女孩沉迷于约会AI男友”,这引起了激烈的讨论。
最近,中国广播电视台报道说,AI聊天软件建议一个10岁的女孩聊天色情内容和CUT脱掉手腕。当用户清楚地告知自己已经有10年的历史时,虚拟字符仍然向他们发送大规模聊天内容。
上海达邦律师事务所的高级合伙人律师Yunting告诉Sohu Technology,从视频的内容来看,AI确实激励未成年人进行色情聊天,这证明了这是有事问题的东西,应该解决。
该报告没有提及指示脉冲切割的聊天软件的名称,但该文章将两个“梦想岛”和“ Heshe It”软件命名为“ Dream Island”。
其中,Dream Island是由Tencent控制的腾讯子公司Xiaoxiang Academy推出的应用程序,已定位为在虚拟世界中为女性用户创建沉浸式整合。今年1月,“梦想岛”宣布正式开始独立运营并完成了新的融资流通,价值超过1000万美元。
在“梦构建Ing Island”,每个用户都可以创建自己的“ Dream Man”,可以发布或使用每个用户。
每个“梦想中的人”都可以理解为代理人。梦想的岛屿角色包括疯狗,考里花,病态和性感,美丽和偏执,等等。
6月19日上午,中国上海网络空间管理局采访了祖山多应用程序运营公司的主要人员,根据法律。朱蒙岛必须立即进行纠正,改善AI生成和合成内容的检查机制,提高技术控制能力,增强涉及未成年人的不良内容的校正和清洁,并有效地实施保护网络的较小义务。
根据公共信息,JD.com将出现在报告“他是”的另一个软件后面。
“ Heshe”的公司Suqian Banxin Intellignt Technology Co,Ltd位于AI内容界。法律代表和总经理是JD Technology人工智能商业部智能算法系负责人Wu Youzheng。
“ Heshe It”应用程序已正式推出了“通用医生”,许多用户创建了自己的智能机构。用户可以与智能文本和声音聊天。
其中,“环球医生”定位为AI助手。用户创造的人比AI同事更具个性,包括嫉妒,叛逆的青少年,寒冷和高贵的继承人,在休闲行业中受欢迎的年轻女演员等等。
根据应用程序市场信息,一天前更新“ He It”版本,增强次要模式,以更新模式的设置门户。
这种类型的AI聊天软件通常被归类为情感AI中包含的应用程序。根据ARK Invest数据和预测,全球AI伴侣市场的市场规模在2023年约为3000万美元,预计AI的伴侣市场的全球规模将分别增长到2030年的700亿美元和1500亿美元。
在使用AI的情感应用中,Minimax推出的Hoshino和Byte是负责人,Daus超过一百万。从国际市场的角度来看,Targin.ai和Minimax发起的谈话是领先的应用程序,其毛寿命超过3000万。
Sohu的技术是随机经验丰富的Hoshino明智的身体,许多开头角色的评论绝对是监控的。
当您互动代理喇嘛时,您可以将一只疯狂的狗扔到地上,问:“您害怕会杀了你吗,主人?”一个疯狂的团体首席执行官情人也可以要求您“来这里接吻”。
在未成年用户与AI聊天机器人交谈后,自我伤害的自杀事件的动机级别。
去年2月,14 - 年龄大的男孩塞维利亚在与角色交谈后,在佛罗里达的家中开枪打死自己。他对角色和Google提起诉讼。今年5月,法官拒绝了该平台律师提起案件的要求,并裁定可以继续审理此案。
青年模型毫无意义
Apple App Store中上述应用程序的年龄评分全部为17+。应用程序的应用评级包括4+,9+,12+和17+。
17+应用程序代表频繁而强烈的侵略性语言,频繁而强烈的动画片,幻想或真实的暴力,频繁而强烈的成年人,恐惧和性线索以及色情,裸体,酒精和毒品,可能不适合17岁以下的儿童。
这些应用程序通常具有年轻或次要的模型。
一些AI随附软件的弹出窗口(右图是“ Dream Island”之前的“ Dream Island”)
在召唤之前,Dream Island青年模式需要积极的用户。如果你不想启用青少年模式,您不需要验证身份。
这不是AI聊天软件的个人示例。 Sohu Technology再次尝试了“ Cat Box”,“ Hoshino”和“ Heshe”。用户需要积极打开次要模式或少年的YouDe,并且使用软件时不需要真正的验证名称。
在次要模型中,这些应用主要提供知识内容。
例如,用户可能会体验“猫盒”知识的知识,但不能创建或评论。类似于“猫盒”,“ Heshe”使用户可以体验诸如中文和英语之类的知识知识,但无法搜索,创建编辑职责和评论。 “ Hoshino”推荐的代理商也没有个性或女友。
更新版本后,朱云岛的“年龄确认窗口”
三天前,Dream Island的更新版本。登录新版本时,该应用将具有“年龄确认”弹出窗口。如果平台不到18岁,该平台将提供-D在青年模式下;如果平台超过18岁,则需要证明该平台。 “
此外,新版本的“ Heshe It”并未迫使成年人在平台上进行真实的验证名称。国内AI情感Hoshino和Catbox Head应用程序尚未要求用户拥有真实名称。
但是,Hoshino发表了一条宣布,称其将着重于加强未成年人的互联网保护。
它指出,不良内容的管理得到了加强。加强对不良内容的在线检查,包括软色情,暴力,压迫,邪教,自杀和自我伤害,对未成年人的价值不正确;同时,加强了对不良文化,不良习惯,强烈的情感取向以及其他Ahente的拦截。
另外,增强未成年人的身份和保护。通过大规模模型技术,我们将加强未成年人的积极认同,并增强反瘾能力。同时,我们将提供e各种进入次要模式的方法,例如弹出提醒系统,以积极识别应用程序上的用户设置以及帮助父母在背景设置中的客户服务。
Liang Zheng认为,如果AI软件表示自杀,例如自杀,如果针对成年人或未成年人,那是一项非法行为和犯罪行为。
关于不应接触未成年人的色情内容的柔软内容,梁恩(Liang Zheng)认为,如果青少年的模型很容易超越,其设置无用,并且该产品本身在设计中遇到了不对劲和风险,甚至是错误的宣传问题,可以将其视为欺诈。
“因为您说有一个较小的模型,但是没有认证或保护的机制,所以这只能显示监管机构和父母具有职能。”
同时,Liang Zheng指出,在启动该应用程序时,应用商店平台没有履行法规职责。
可以“强迫真正的na我”
Yiyou经常提到这种主要是关于爱的AI聊天软件。相比之下,禁止Yiyou的未成年人的步骤更加严格。
2021年8月,B-you-go“对光明之夜的爱”宣布,在真正的公共安全验证名称名称不登录游戏之后,任何未登录的未成年人都确认了18岁。 Head Game“ Love and Deep Space”也于今年4月发起了面部识别功能。
为什么情感整合应用不迫使像Byou这样的真实名称来区分成年人和未成年人? AI公司的商人和前阿里巴巴的商业经验介绍了游戏B属于游戏,并且该游戏具有全国性的媒体和出版管理,应真正命名。
他说,没有针对AI伴侣申请的法规。通常,应用程序分别按应用年龄分别对应用程序进行分层。每个应用程序市场都不一样,E不是现实名称系统。
您还提到了这种情况:“当前缺乏合规性中的人工智能(强制性实名)。平台的义务是建立青年模式,但它并不要求用户证明其身份证。”
您已经教导说,在没有合规要求的情况下,建立人工智能公司不仅毫无意义,而且还会引起对隐私泄漏风险感到厌恶和记住的用户。
Liang Zheng说,如果不需要对真实姓名进行身份验证的法规,则可以忽略应用程序,而底线则太低。
Liang Zheng说,像游戏一样,强制性的真实姓名也可以满足合规性要求,这也是可能的,但是这本身可以通过行业中的自我差异来实现。情感AI行业应建立积极和良好的价值观。行业中的学科是解决市场的重要方法。如果是self -dis无限制是不够的,它将对该行业造成普遍损害。
“ AI聊天申请必须满足一系列要求,包括内容的准确性,消费者隐私保护,遵守公共秩序和良好的规范以及对未成年人的特殊安全考虑。如果不满足标准,则不是合格的产品,不应将其放置在货架上。” Liang Zheng补充说。
6月13日,州互联网信息办公室发布了“公开征集意见的通知”,以对可能影响未成年人的身体和次要健康的互联网信息进行分类(评论草案)”。
提出意见的草案表明,借助信息可能导致或激励未成年人模仿或做不良行为,首先是“对性建议,性冲动等,可以很容易地导致性联系”。
如果您提供算法建议和人工智能的发展等服务,则应建立SH并改善安全管理系统和技术措施,以防止和防止可能影响未成年人身心健康的网络信息传播。
谁应该负责?
SOHU技术应用程序的AI创始人表示,很难避免色情儿童的内容,但是有一些具有某些技术能力的公司可以解决该问题。他介绍了“当今AI对总体状况的理解非常好,而这个问题Meresolve没有关键字锁定(相关色情)。
但是,聊天色情儿童的内容仍然出现在市场上的AI聊天应用中。人们已经回顾了,首先,一些小型团队可能没有足够的技术实力。另一个因素可能是人们不关注这个问题,甚至希望吸引用户。
您说,如果未成年人被迫在色情内容或与内容有关的内容和自我伤害上聊天,则该平台作为服务提供商,应带来责任。出现此类问题后,监管机构还需要平台来进行更正。但是由于窒息而不可能禁止AI聊天软件。
他说,反对这边本质上是一个道德问题,法律标准的目的很难确定。实际上,执法部门通常为人工智能公司或游戏公司提供窗户指南,“如果有些规则无法清楚地解释,我会告诉您可以实现什么影响。”
不仅是未成年人的父母,而且许多成年用户还希望未成年人可能会减少对这种应用的影响。
一些用户认为该软件设置了一个较小的模式,未成年人仍在播放,并且应该与父母忽视纪律有关。应用程序应限制未成年人,而不是代理商用户的创建。
关于是否禁止允许成年人与AI谈论Nunfortun您认为,“并排”内容是一个灰色区域,并且AI公司有组织,但是社会有这种需求,并且不会侵犯他人的权利和利益。 “严格控制在技术中确实很困难。”回到Sohu看看更多