Soul满足兴趣社交表达,引领青少年清朗网络空间

2020-11-05 09:33:19 作者: Soul满足

   2020年10月17日,十三届全国常委会第二十二次会议通过修订后的《未成年人保护法》,明确了对未成年人实施网络保护的措施。保护未成年人正在成为网络行业内的共识,受到年轻人追捧的Soul就是其中之一。

  第三方平台数据显示,Soul每日活跃用户已接近千万;2020年十一长假期间,Soul登上App Store社交类免费App排行榜第一、全部免费App排行榜第五,高速的发展使Soul成为90后、95后年轻人网络社交平台市场的一匹黑马。在基于兴趣的网络社交产品领域,Soul App一直致力于营造温暖、善意、绿色的社交环境。

  修订后的《未成年人保护法》正式通过,Soul也正在努力用更完善的技术,更有效的机制营造一种热爱生活、拼搏进取的正能量社交氛围,让未成年人免受不良网络信息侵害,茁壮成长。

  始于兴趣 表达自我

  社交网络是一个巨大的市场,它能便捷地实现了人与人的沟通和倾诉,也是一个个性化的选择。Soul的诞生,正是与创始人在一个时间段里的一种自身孤独感有关。“当时我有一些想表达的东西,在微信上不可以发,然后我就发到QQ空间,设置了仅被自己可见。” Soul创始人张璐回忆中的这种经历,很多人也曾有过,而她意识到,市场上好像没有一个可以让自己毫无压力的自由表达和互动的产品。“我想给自己做一个这样的产品”,于是张璐从咨询公司离职,经过一年的努力在2016年11月上线了自己的平台。

  在张璐的构想中,Soul既是一个找人聊天的地方,也是一个记录生活和情绪,表达自我的平台。为了让用户寻找聊得来的人,Soul设置了多种匹配机制。而用户需要真实注册,发布真实内容,然后基于这部分内容所产生的用户画像,才能去匹配他人。由此,低成本地促成人与人之间的深度交流,进而让用户降低孤独感,获得幸福感。按照Soul的设计,越是真实地表达自我,越有可能寻找到适合自己的聊天对象(Soulmate)。

  正式因为出于真实的感受需求,平台上线后,迅速得到90后、95后甚至00后年轻人自发的追捧,成为年轻人在微信外的一个重要的网络社交平台。而背后的逻辑在于,随着在微信平均好友关系数量的增加,在微信上发布生活化的内容需要承受越来越大的社交压力,特别对于年轻人来说,微信上可能有自己的父母、亲戚、同学、同事等熟人关系,他们不希望熟人感知自己的这份孤独,但希望能通过向树洞倾诉或与陌生人聊天,疏解这份孤独,以调整状态,展现一个更有活力的自己。

  完善机制 全面保护

  虽然社交网络极大地丰富了人们的交流渠道,但也引发了虚假信息、网络暴力、隐私泄露以及低俗恶俗信息等侵害个人和公众利益,特别是青少年成长的问题引起广泛关注。

  对未成年人的保护上,Soul一直走在行业前列。根据人民网此前对SoulApp的报道,在新《未成年人保护法》通过前的一年半SoulApp就已设置新的准入机制:对注册年龄下限为设定为18周岁,未满18周岁的用户将不允许注册。注册年龄为18岁以下的存量用户会自动进入“青少年模式”,且不可自行设置退出青少年模式。若需退出青少年模式,须将年龄更改为 18 岁及以上,而更改年龄步骤需上传本人手持身份证照片,通过平台人工审核后年龄更改方能生效。此举措意在避免未成年用户借用他人身份信息更改个人年龄。

  

 

  在设计最初,Soul就针对不良信息建立起了自动监测和人工强干预处理流程。4年的运行,也随着用户量的增大,系统越来越完善。按照Soul最新的数据,监测系统拦截各类不良信息和疑似诈骗信息总数已超过2000万条,截至2020年10月,公司日常从事不良信息系统处理和人工强干预工作人员600人以上,其中包括产品段业务安全部80人,风控安全部50人,用户研究反馈部29人,人工审核部门458人,相关人员人数还在不断增加。

  在用户分层管理上,Soul对存量未成年用户与成年用户进行了严格分割,以规避未成年用户受到成年用户的影响或打扰。所有用户每日首次进入APP时,均会在进入广场前弹出“青少年保护”的相关提示,并在插入“青少年模式”的说明供用户查阅了解。用户需阅读完毕后点击“我知道了”方可进入APP,否则不能关闭弹窗。而在未成年用户能使用的功能也做出限制:对于未成年用户,不开放“恋爱铃”、“脸基尼匹配”等功能的入口,仅保留“灵魂匹配”功能,且未成年仅能匹配到未成年用户。

  

 

  

 

  针对虚假注册,Soul 设置了严格的“年龄不符”举报机制。为防止成年用户与未成年用户误入对方模式,加入了“对方年龄不符”的举报按钮。如果用户被多次举报“年龄不符”,将通知其修改年龄,并上传身份证、学生证等相关证件,经过人工审核通过后方可继续使用,否则将被无限期冻结App基础功能使用权限。

  

 

  而在未成年用户发布的内容保护方面,除系统过滤外还会有受过“未成年人保护”相关内容培训的审核人员进行单独审核。未成年人审核标准与成人内容审核标准有所区分,针对同一内容未成年用户发布与成年用户发布的处理标准不同,以最大限度对未成年人发布内容进行把控。

  据了解,SoulApp内部每周都会组织2次以上的专项会议,专题讨论未成年生态健康。作为公司内部负责Soul青少年安全与体验问题的产品经理,实时监控社交平台系统中未成年人保护机制运行以及对未成年用户的内容过滤流程运转情况,是其工作的重点。

  这样的例会从公司开始运营起就已是一种常态,每次会议都有公司副总裁、技术部门负责人、内容部门负责人、UGC(用户原创内容)运营人员和专职的“未成年审核”工作人员参加,现场解决技术设计和系统运行中的问题,用户参与官方预设话题也会在会上被提出,交由审核人员研判,再反馈回内容运营做推送年龄设置,以保证推送给未成年的话题都是适宜内容。

 1/2    1 2 下一页 尾页