中国记协微信公众号近日发布的文章《比央媒还快!率先找到扁担女孩的是他们》,介绍了湖北日报传媒集团记者丁伟如何通过科学、合规的融媒体搜索方法成功寻找到“扁担女孩”刘同学的过程。区别于常见的“人肉搜索”,丁伟首先分析视频发布规律,确认拍摄地点特征,随后联系当地教育部门获取线索,最终完成实地寻访。这一过程既体现了融媒体搜索的高效性,又彰显了对隐私边界的尊重。
在数字时代,融媒体搜索功能已成为信息获取的核心工具。其技术特性决定了它既是公共信息服务的桥梁,也可能成为侵犯隐私的利器。随着《网络数据安全管理条例》于2025年1月1日正式实施,我国网络数据安全治理进入新阶段,对搜索服务的合法性要求也日益严格。本文旨在探讨融媒体环境中搜索功能使用的合法边界,分析“人肉搜索”“开盒”等异化现象的社会危害,并提出构建隐私保护法律规制、技术伦理与公民素养协同共治的三维治理框架建议。
一、搜索引擎的工具效率与隐私脆弱
搜索引擎作为融媒体时代的核心信息工具,其本质是利用计算机技术从互联网上搜集、处理各类信息供用户检索的服务。根据《互联网信息搜索服务管理规定》,搜索服务提供者需确保搜索结果的客观、公正、权威,同时明确付费信息比例上限,禁止通过虚假信息牟利。这种定位赋予了搜索功能双重属性。
从技术特征看,搜索引擎运作依赖网络蜘蛛自动抓取网页信息,理论上可覆盖绝大部分公开网页内容。这种机制决定了其开放性与公共性:搜索引擎不创造信息,而是作为信息中介连接信息生产者与使用者。
然而,技术中立性不等于价值中立性。当记者丁伟利用微信发布规律定位“扁担女孩”时,他实践的是逆向工程式的合法搜索,通过分析公开平台的信息传播机制获取线索,而非侵入非公开领域。这种方法与“人肉搜索”的本质区别在于,前者尊重信息主体的隐私预设,后者则破坏隐私的技术边界。
但是,在近年来,“开盒”又作为一种新型网络暴力手段,呈现出低龄化、组织化和技术化的趋势。2025年初发生的“开盒孕妇”事件,不仅引发了公众对个人隐私保护的强烈担忧,更暴露出网络暴力、家庭教育、企业责任和法律规制等多层面的、值得我们高度重视的社会问题。
二、搜索引擎从工具理性到价值异化
当搜索功能脱离法治轨道,便异化为网络暴力工具。“人肉搜索”作为其极端形态,已从早期论坛协作模式升级为社交媒体时代的高效信息整合。这种升级源于三个方面:
1. 信息核聚变传播模式。 社交媒体平台的信息串联能力使碎片化信
息能被快速整合。在广东“高中女生琪琪投河事件”中,服装店主蔡某将监控视频截图发布微博后,网民迅速完成对琪琪姓名、学校、住址等个人信息的全方位曝光。琪琪不堪压力选择自杀,一条年轻生命因未经核实的“小偷”指控而消逝。类似事件中,网民通过“人肉搜索”披露当事人隐私信息,致其遭受现实生活中的无端骚扰。
2. 算法助推的群体极化。在资本逻辑驱动下,数字平台利用算法分
析用户兴趣,精准推送个性化信息。算法倾向于推荐情绪化、冲突性内容,使“人肉搜索”参与者陷入道德审判的集体狂欢,丧失理性判断能力。这种群体极化效应在社交媒体时代被几何级放大。
3. 技术异化的伦理危机。 资本逻辑下的数字劳动使参与者易陷入无
抵抗状态。普通网民在平台算法引导下,思维模式趋向单一,如同机器思维。当人与算法达到“同频共振”时,人可能丧失道德反思能力,甘于顺从,沦为资本操控的数据生产工具。这种异化使参与者只见“正义”目标不见个体权利,只见道德审判不见法律程序。
异化的本质是工具理性对价值理性的碾压。在“人肉搜索”过程中,技术能力突破伦理底线,公共利益凌驾个体权利,道德判断取代司法裁判。正如一位作者所言:“牺牲个体权利获取‘正义’的社会,是无序和可怕的,无异于饮鸩止渴。”
三、隐私保护的法治框架与技术伦理
中国个人隐私保护法律体系不断演进:《中华人民共和国网络安全法》(2017年6月实施)确立网络安全等级保护制度;《中华人民共和国数据安全法》(2021年9月施行)建立数据分类分级保护制度;《中华人民共和国个人信息保护法》(2021年11月施行)确立“知情—同意”核心原则;《网络数据安全管理条例》(2025年1月1日实施)细化场景化保护规则,定义“重要数据”。
《条例》的实施标志着我国隐私保护进入新阶段。面对数字时代隐私保护的脆弱性,构建“法理+技术+伦理”三维治理体系尤为必要:
1. 法律体系的精细化。《条例》在《个人信息保护法》“知情同意”
原则基础上,细化场景要求:“不得通过误导、欺诈、胁迫等方式取得个人同意”,且“收集个人信息为提供产品或者服务所必需,不得超范围收集”。这为界定合法搜索与“人肉搜索”提供了明确标尺。
合法搜索:基于公共数据库、获得主体授权或符合《民法典》第1036条的“合理处理”情形。
违法搜索: 突破必要原则、违反知情同意、破坏技术防护。
《条例》创新性定义“重要数据”,即“特定领域、特定群体、特定区域或者达到一定精度和规模,一旦遭到篡改、破坏、泄露或者非法获取、非法利用,可能直接危害国家安全、经济运行、社会稳定、公共健康和安全的数据”,并建立年度风险评估机制,强化关键数据保护。
2. 技术伦理的人本化。 欧盟《数字市场法案》(DMA)2025年对苹
果、Meta的处罚案例提供重要启示(苹果因App Store“反引导”规则被罚5亿欧元,Meta因“付费或同意”模式被罚2亿欧元)。这些处罚直指技术伦理核心:不得利用技术优势剥夺用户选择权。
技术伦理的实践路径需强调“数智善治”(武汉大学容志教授所倡导),即利用数字智能优化公共治理,同时防控技术异化风险。需警惕“只见数字不见人”的治理偏差。正如容志教授指出的:“社会是高度复杂、多元的系统,人也是丰满、多面和立体的社会存在,而数字是个体或集体某类特征的抽象性表达。”
3. 公民素养的全面性。保护隐私需提升公众的数字素养与法治意识。
认知层面: 理解“公开≠可任意传播”原则,区分公共数据与个人隐私边界。
技能层面:掌握隐私设置、数据加密等技术防护手段。
行为层面:遵守《网络数据安全管理条例》第9条禁止的行为,如“通过断开相关链接或者提供含有虚假信息的搜索结果等手段,牟取不正当利益”。
记者丁伟通过分析视频光线推断拍摄时段,结合微信传播规律定位区域,最后通过正规渠道(教育局)核实信息。这种方法既发挥了专业能力,又恪守了法律边界与职业伦理。
融媒体搜索功能的合法性边界,映射了数字时代的核心命题,如何在技术效能与权利保障间建立动态平衡,答案不在技术倒退,而在法治完善与伦理觉醒。
技术中立性不能成为价值中立的借口。搜索引擎作为信息基础设施,需承担与其技术能力相匹配的社会责任,如《互联网信息搜索服务管理规定》所要求:提供客观、公正、权威的搜索结果,明示付费信息属性,建立用户权益保护机制。
隐私保护并非信息流通的对立面。《网络数据安全管理条例》建立的“数据分类分级保护”与“重要数据风险评估”制度,正是为了在保障安全前提下促进数据有序流动。欧盟DMA同样致力于平衡二者:一方面强化用户数据控制权,另一方面要求平台提供数据互操作性支持。
记者丁伟寻找“扁担女孩”的案例揭示了一条人本主义技术路径。尊重平台规律而不破坏隐私边界,利用公共渠道而不侵入私人领域,发挥专业能力而不滥用技术优势。这种方法既彰显了技术赋能的温度,也守护了隐私保护的底线。
当每一次搜索都伴随法律审视,每一次点击都蕴含伦理选择,我们方能在数字文明中实现真正的“数智善治”。技术应为人的全面发展服务,而非人被技术逻辑异化。这需要法律制定者的智慧、技术开发者的良知与每一位数字公民的责任自觉。唯有如此,融媒体的搜索之光才能照亮信息之路,而非灼伤个体尊严。
正如法国哲学家帕斯卡尔所言:“人是一根能思想的苇草”。在数字洪流中守护个体权利的尊严与价值,是我们这个时代紧迫的技术伦理命题。