林夏盯着手机屏幕上弹出的弹窗,指尖悬在“确认授权”按钮上方迟迟未点。弹窗来自她常用的购物APP“易选”,标题格外刺眼——“开启个性化导购,解锁专属购物体验”,下方小字却藏着陷阱:“授权后将获取您的浏览记录、搜索关键词、设备位置及健康相关浏览数据,用于优化推荐”。
三天前,她只是在APP里搜了次“血糖监测仪”,想给患糖尿病的母亲做参考,结果接下来的每一次打开,首页全是降糖药、无糖食品,甚至还有“糖尿病患者专用保险”的广告。更让她不适的是,昨晚浏览过一条“产后修复”的科普文章后,今天推送栏竟出现了“产后身材走样?这款塑形衣帮你找回少女感”的广告,配图里的模特对着镜子皱眉的样子,像极了她昨晚对着衣柜叹气的神态。
“这根本不是推荐,是监视。”林夏把手机扔到沙发上,揉了揉发胀的太阳穴。她打开电脑,在搜索引擎里输入“易选APP 数据滥用”,跳出来的词条让她倒吸一口凉气——“用户搜过‘脱发’被推荐植发手术,客服称‘基于您的需求优化’”“大学生查‘考研租房’,收到‘考研失败怎么办?来找份保安工作’的广告”“孕妇浏览母婴用品,被推送‘孕期抑郁自测’,附带心理诊所广告”。
评论区里,无数人和她有同样的遭遇。有人说自己只是帮父亲查了“心脏病用药”,结果父亲的手机上全是“心脏支架手术优惠”;有人吐槽APP根据自己深夜浏览记录,推断出“睡眠质量差”,天天推送助眠药,还附带一句“长期失眠可能引发癌症”的警告,吓得他整夜更睡不着。
这些看似“精准”的推荐背后,是算法对个人隐私的无差别吞噬。林夏滑动鼠标,目光停在一条不起眼的新闻上——“全球技术伦理联盟成立专项小组,聚焦智能导购数据滥用问题”。她盯着新闻里小组负责人的名字,心脏猛地一跳——陆则,她大学时的学长,如今是业内知名的技术伦理专家。
抱着试一试的心态,林夏找到了联盟的公开邮箱,把自己的经历和搜集到的用户反馈整理成邮件发了过去。她没指望能收到回复,毕竟这种个人诉求在庞大的技术体系面前,渺小得像一粒尘埃。
没想到,第二天一早就收到了陆则的回信。邮件里只有简短的一句话:“明天上午十点,联盟办公室见,带上你所有的证据。”
联盟办公室位于市中心一栋玻璃幕墙大厦的22层,推开门,林夏看到十几个年轻人围着会议桌争论,墙上的大屏幕上滚动着各种数据图表——“智能导购用户隐私授权率:89.7%”“敏感数据使用占比:健康数据34%,财务数据28%”“焦虑营销关键词出现频率:‘不买就晚了’‘再不治就晚了’位列前二”。
“林夏?”一个穿着白衬衫的男人朝她走来,镜片后的眼睛透着沉稳,正是陆则。他把一杯温水递给她,“你的邮件我们都看了,这些用户案例,是我们目前最缺乏的一线证据。”
会议桌旁,一个扎着马尾的女孩敲了敲键盘,屏幕上切换出一组数据:“根据我们的调查,目前80%以上的购物APP都在使用‘行为数据+敏感数据’的混合推荐模型。比如,通过用户浏览‘减肥餐’推断出‘体重焦虑’,再结合地理位置推荐周边的健身房;通过用户频繁查看‘低价商品’判断‘财务状况不佳’,推送高利息消费贷。”
“更恶劣的是‘焦虑营销’。”另一个戴眼镜的男生调出一段录音,是某APP客服和用户的对话,“用户问为什么会收到‘皮肤癌风险’的广告,客服说‘因为您近期浏览过紫外线过敏的相关内容,系统判断您有皮肤健康隐患’,但实际上,用户只是帮朋友查了一下防晒知识。”
林夏握紧了手里的水杯,声音有些发颤:“我母亲看到那些降糖药广告后,总以为自己的病情加重了,整夜睡不着。这些算法根本不管数据背后的真实情况,只知道根据关键词制造焦虑,逼着用户消费。”
陆则点点头,把一份文件推到她面前:“这是我们初步拟定的《智能导购伦理边界(草案)》,今天请你过来,就是想听听普通用户的意见。”
林夏低头翻看文件,里面的条款让她眼前一亮:“算法不得基于健康、财务、婚恋等敏感数据生成推荐”“禁止使用‘不购买将导致负面后果’的焦虑营销话术”“用户有权随时查看、导出及删除用于推荐的个人数据”。
“这些条款很好,但能落地吗?”林夏抬头问,“比如‘删除个人数据’,之前我联系过一家APP的客服,对方说‘数据已匿名化存储,无法单独删除’,最后不了了之。”
“这就是我们接下来要解决的问题。”陆则指着屏幕上的流程图,“我们计划分三步推进:第一步,联合监管部门,要求所有APP在1个月内公示数据采集范围和推荐算法逻辑;第二步,开发‘数据溯源工具’,让用户能清晰看到自己的哪些数据被用于推荐;第三步,建立‘伦理审查机制’,对违规APP处以罚款,情节严重的责令下架。”