加载失败
Character.ai 宣布将禁止 18 岁以下用户使用其聊天机器人,并计划通过对话内容、平台互动及连接的社交账号等技术手段检测未成年用户。评论围绕年龄检测能否被规避、对长期依赖 AI 伴侣的青少年心理影响、平台的数据收集与隐私风险、以及公司是否通过政策调整降低法律责任或为放宽成人内容做准备等问题展开。社区同时讨论了可行的隐私友好年龄验证方案、行业标准化的必要性,以及公司在算力(如 H100s/TPUs)与单位经济学方面的市场地位如何影响其决策。理解这些争议需要知道相关技术与监管限制,以及不同利益方(孩子、家长、公司和监管机构)之间的责任划分。
部分评论者担心突然禁止18岁以下使用会伤害那些已经把聊天机器人当作主要情感支持的青少年。评论指出AI伴侣通常比现实人际关系更容易获得,长期对话会产生强烈依赖,突然断开可能导致孤独、焦虑甚至触发自伤或自杀风险。有人引用以往青少年沉迷聊天机器人并出现严重后果的案例,建议公司应与儿童心理学家和精神科医生合作并实行渐进式过渡,而不是一刀切地断开访问。还有观点担心该禁令会把本来信任Character.ai的年轻用户推向更不安全的平台。
多人质疑公司宣称“基于对话、互动和连接社交账号的技术”来检测未成年用户的可行性,认为未成年人更易想出规避办法。评论提到此类检测往往作为对外的合规举措,实际效果有限且容易产生误判,从而更多是为了在不大幅流失用户的情况下‘做点事’。讨论还指出误判成本低(让用户验证年龄)比对所有用户强制身份证验证要便宜,以及模型需要区分冒充青少年的成年人或情感发育不全的成人。另有评论怀疑真正动机可能包括为放宽 NSFW/romance 内容或减轻未来法律责任铺路。
[来源1] [来源2] [来源3] [来源4] [来源5] [来源6]
有人直接指责Character.ai在数据收集、售卖与删除机制上不透明,担心未成年人与AI的私密对话被转售或用于广告/第三方分析。这种不信任使得对禁令背后动机的质疑加剧:是为保护孩子,还是为了降低企业的数据与法律风险。评论呼吁对平台的数据处理进行更严格的审计与监管,以保护敏感对话不被滥用。
部分评论认为将产品定位为18+并禁止未成年人使用是必须的,强调科技公司不应替代家庭和社区的监护职能。评论主张公司要明确责任边界,家长也需主动介入防止孩子与聊天机器人形成不健康依赖,同时企业应在政策上说明法律与安全责任。还有呼声要求行业标准化和法规介入,避免单一公司临时决策造成不一致或不公平的风险。
关于封禁对营收的影响,社区意见分歧:有人认为对营收影响有限,也有人指出放弃年轻用户会让竞争对手填补空白。反驳者认为多数竞争对手目前无法有效服务青少年市场(高算力成本且付费意愿低),Character.ai 的早期规模部分得益于对 H100s/TPUs 等算力资源的接入与推理优化。评论补充,公司在单元经济学成熟后有可能回滚限制,因此当前策略既可能是合规与减责,也可能是短期的战略收缩。
有人贴出此前讨论过的隐私友好型年龄/信息验证方案,宣称存在兼顾隐私与可扩展性的技术(可用于多种应用场景)。但该方案的贴出者被指为未披露自我推广,导致社区对其动机和可信度产生怀疑。总体观点是技术上可能存在可接受的验证方法,但公众要求更透明、开源或第三方审计才能建立信任并推广到行业标准。
H100s: NVIDIA H100 GPU,高端数据中心 GPU,经常用于大型语言模型(LLM)的训练与推理以加速计算,但成本与能耗较高。
TPUs: TPU(Tensor Processing Unit),Google 开发的机器学习加速器,用于大规模模型训练与推理,常见于云端机器学习基础设施。
NSFW: NSFW(Not Safe For Work),指不适合公开或未成年人浏览的成人/色情或其他敏感内容,平台常对其实施限制。
年龄验证 (age verification): 用于确认用户年龄的技术与流程,方法包括第三方身份验证、匿名凭证、社交账号交叉验证或基于密码学的零知识证明,目标是在保护隐私的同时证明年龄合规。