本文目录一览:
小学生时代可不可以沉迷网络游戏?
图片来源@视觉中国
文 | 竞核 ,作者 | 孙磊(竞核特邀专家、北京韬安律师事务所高级顾问 )
今年6月,我们曾经在B站讨论过一个话题,《防沉迷、宵禁、限充,为什么我们总是管不住未成年人玩游戏?》,主要回顾了从2010年开始全社会对于游戏沉溺的治理与社会效果。
最终的结论是:建议立法是很简单的,而立法过程和最终执法效果、执法成本和社会效果,却很复杂。
这是一个很敏感的、又老生常谈的问题。说敏感,是因为只要我们说个“不好”,就自然站到了广大家长的对立面(虽然我本身也是一名小学生的家长),这弄得我们非常谨小慎微,逐句进行修改;说老生常谈,是因为视频里也说了,其实从我们小学生时代(我是八零年代的)就已经开始这种话题。
一周后,6月15日,中国人脸识别第一案在杭州市富阳区人民法院开庭,原告郭老师不同意被告杭州野生动物园采集他的人脸信息。
涉及利用人脸识别技术来防止儿童沉溺网络游戏的主张,差不多从2011年,或者更久远就“持续且稳定”地被不同代表们作为提案提出,一直到今天。
很讽刺,两件事情放在一起,似乎有种“大人的脸才是脸,小孩子的脸不是脸”的错觉。可是事实应该并非如此不堪,否则一系列未成年人个人信息保护的法律法规,是用来做什么的呢?
大人的脸和孩子的脸
大人们似乎一直对于“完美的技术”存在迷信,认为只要存在“完美的技术”,就可以解决一切熊孩子的问题。
比如曾经有新闻导报过的,2018年南京一学校采用人脸识别技术来分析一个教室里的学生是否认真听讲,是否打瞌睡,有学生担心侵犯个人隐私,学校答“教室属于公共场所,所以不涉及隐私”。
很巧的是,2019年6月13日,法国Active Assurance公司的几个员工举报自己的公司在办工作场所安装监控摄像头持续进行拍摄,最后数据管理部门罚了公司2万欧元。
一方面,这些完美的技术应用在大人身上就是大事儿,就可能被罚,而另一方面,应用在小孩子身上,就是正确的,这个逻辑是什么呢?其实没有逻辑,事实就是,个人隐私的事,只有大人会较真,去举报,去投诉,或者起诉。
反观小孩子们则不会,也不敢,而他们的家长更不会,因为他们似乎希望这些“完美的技术”,只要不是应用在他们自己身上。
在2019年很多次未成年人权益保护的论证会和研讨会中,我提出过一个疑问:目前的立法思路,似乎是默认大人是孩子的保护者,所以一切数据的查询权,删除权,携带权等等,都是由家长发起的,那么,如果家长本身就扮演着“施暴者”的角色呢?很多专家似乎没有理解。
举个例子:我是一个特别喜欢在各种社交平台晒娃的家长,我也可能是一个在录抖音的时候特别喜欢把我家3岁的宝宝出镜的家长,事过3年,我的宝宝上小学了,有一天他回家和我说,爸爸您能把视频和照片删了么,因为我同学笑话我那些小时候的“露点照”,我说“傻孩子,这是爸爸对你的爱啊”。
那么,孩子能不能向平台提出要求,要求删除他爸爸账号上自己的个人隐私信息呢?似乎没有人想过这个问题,这个问题也沉没了,因为这确实是个“扫兴”的问题。
而事实上,这个问题并不是没有人想过,比如越南的个人信息保护法,就很有意思的规定了,7岁以下的儿童由其监护人行使相关权利,7岁以上,儿童可行使相关权利,这意味着如果出现上面儿童与家长一件不一致的情况,是以儿童的意思表示为准的。
从法律上,为什么划定是7岁,可能因为7岁一个孩子已经可以有自己所谓的社交圈的概念,也有所谓的羞耻感和初级世界观。国内可能觉得新鲜,但国外已经发生大量孩子起诉父母擅自分享孩子照片的案件,用“Child sues parents for posting pictures”为关键词,能搜出大量案例。有起案件中,13岁的孩子甚至要求父母赔偿35万美元,用以补偿自己十年来所受的羞辱。
当然,如果我的孩子最终选择了删除了那些“包含了老父亲满满的爱”的视频和照片,我可能会很失望,我也会告诉他“你以后会后悔的”,但我会尊重他。
家长是否可以代替孩子决定权利?应该说大部分情况下的答案是“可以”,但还是会有一些情况可能是“不可以”,比如隐私,或者说,孩子的那张脸。
完美的技术和完美的结果
其实对于我们大人,经过那么多年的社会说教,我们已经接受了“不完美的自己”和“不完美的世界”,所以才会出现那么多“生活不易”的鸡汤文章和鸡汤视频,以至于当我们希望孩子是完美的,很多教育学专家纷纷建议,要学会正确对待自己孩子的“不完美”,要善于鼓励孩子的长处。
而讽刺是,涉及游戏人脸识别反沉溺的问题,似乎这些专家们又想不明白了。那么,不完美的我们,不完美的我们的孩子,不完美的教育方式,是否能依靠“完美的技术”来拯救呢?
技术就是技术,人脸识别就人脸识别,它是中立的。技术可以不断“完善”,但很难“完美”。举个例子,只要有一个孩子找到了人脸识别技术的一个BUG,那么不出一周,全国的孩子就都知道了,那么这个技术就“不完善”了,那么游戏公司就要去“完善”,堵住漏洞。
而只要有一个孩子的脸部信息等敏感信息被泄露了,那么,就意味着全国孩子的脸部敏感信息都有可能泄露(当然,如果泄露,一般都是千万级起步的,比如此前韩国的网络游戏《冒险岛》《天堂》的千万级用户隐私泄露事件),那么这个技术就是“不完美”的,因为它的弊似乎大于利。
那么,是否可以做到“完美”呢?这个不好说,因为技术再完善,总会有黑客,总会有恶意攻击,这个频率大概是多少呢,按照2014年网信办的官方数据,2014年3月到5月之间,就有118万的电脑被境外控制——是的,是直接控制,这还不是数据泄露。
今年3月底,新浪微博因用户查询接口被恶意调用,导致5.38亿微博用户数据泄露,其中1.72亿有账号基本信息,被公开在网上售卖。
当月,Facebook被曝出其OAuth框架权限绕过的API漏洞,并因此获取赏金$55,000美元。然后是ZOOM会议软件出现数据泄露,大量用户信息在暗网被低价拍卖……而对于人脸、指纹等生物识别信息而言,这些个人敏感信息的收集、使用和存储,需要极度谨慎,一旦出现问题,势必给未成年人带来难以预测且不可逆的严重影响。
某种程度上,也正是因为如此,瑞典才针对未成年人个人信息保护,根据《一般数据保护条例》(GDPR)开出首张罚单:在瑞典斯凯尔莱夫特市,安德斯托普高中(Anderstorp High School)利用人脸识别技术,进行了为期三周的测试,用以监控高中生的出学率。
但是,即便在测试前获得了受测试学生及其父母的同意,瑞典数据保护管理局(DPA)仍认为,这种做法违反了《一般数据保护条例》,属非法收集数据,对学校处以20560美元(约合20万瑞典克朗)的罚款。
在美国,自“Black Lives Matter”反歧视运动以来,美国科技公司也正掀起一场对人脸识别技术的反思:IBM明确宣布,不会继续提供、开发、研究面部识别或者分析软件;亚马逊则限制人脸识别软件Rekognition的使用对象,仅允许类似国际失踪与被剥削儿童中心等公益组织继续使用软件,以营救被拐卖儿童。
我们都说,2020年的未成年人保护的“大年”,而即便在这个大背景下,似乎各界并没有太重视“大人的脸和孩子的脸”的问题,呼吁在防沉迷技术措施上不断加码的呼声越来越高,似乎有一天“人脸”也不够用了,得验个DNA序列才稳妥;在此背景下,互联网企业也或主动或被动地引入各种生物识别的技术手段,探索对未成年人的账号注册、网络使用和消费等进行身份识别、年龄判断。
国内的这种呼声和趋势下,似乎孩子们并没有感受到来自家长和社会的“爱意”,而仅仅是来自技术的“粗暴”。
大部分家长并没有足够了解技术可能伴随的问题,对于技术,我们理应保持敬畏之心,就像开启一个未知的盒子。
游戏也一样,小说也一样,电影也一样,绘画也一样,永远可以“完善”,但似乎永远不会“完美”,而这种“不完美”,才让我们永远保持“在路上”的状态。