摘要:Securly是一个流行的学校监控平台,正面临越来越多关于其数据收集实践的隐私担忧。超过1,430名家长和学生签署了请愿书,声称Securly未经同意收集和出售学生数据,违反了联邦隐私法。虽然截至2025年没有重大集体诉讼成功,但这一争议凸显了全面监控工具的风险。寻求家用替代方案的家长正在选择像WhitelistVideo这样注重隐私的解决方案,它可以防止接触不良内容而不收集个人数据。
什么是Securly?
Securly是一个学生安全和监控平台,被全国超过15,000所学校使用,监控超过1000万名学生。它被作为一个全面的解决方案进行营销:
- 网页过滤(阻止不适当内容)
- 活动监控(追踪浏览、应用、社交媒体)
- AI驱动的自残、霸凌、暴力警报
- Chromebook管理(学校使用的主要平台)
学校在学生设备(主要是Chromebook)上安装Securly,以符合CIPA(儿童互联网保护法)对互联网过滤的要求。
但最初作为网页过滤器开始的东西,已经演变成一个全面的监控系统,追踪学生几乎每一个数字行为。
隐私争议:发生了什么
请愿书(2021年)
2021年,一份名为"阻止Securly出售我们的数据!"的Change.org请愿书获得了超过1,430名学生和家长的签名。该请愿书声称:
- Securly收集的学生数据远超网页过滤所需
- 该公司为牟利将学生数据出售给第三方
- 数据收集违反了FERPA(家庭教育权利和隐私法)
- 数据收集违反了COPPA(儿童在线隐私保护法)
- 学生和家长没有被适当告知监控的范围
学生和家长的投诉
用户的常见投诉:
- "Securly监控我在学校Chromebook上做的一切,即使在家里也是如此"
- "软件在我不知情的情况下截屏"
- "它读取我的电子邮件和Google文档"
- "我感觉一直被监视,即使是在个人时间"
- "学校没有告诉我们这会有多侵入性"
隐私倡导者的担忧
像电子前沿基金会(EFF)和Student Privacy Compass这样的组织提出了担忧:
- 全面监控对学生表达产生寒蝉效应
- 收集的数据远超CIPA所要求的
- 学校通常不了解他们授权的数据收集范围
- 学生数据用于训练AI系统
- 缺乏关于数据保留和共享的透明度
集体诉讼状态
截至2025年12月:
- 没有重大集体诉讼成功针对Securly提起
- 在一些司法管辖区提交了个人投诉
- 隐私倡导者继续调查潜在的FERPA违规行为
- 一些学区因隐私担忧放弃了Securly
Securly实际收集哪些数据?
根据Securly的隐私政策
Securly自己的文档披露它收集:
- 网页浏览:学校设备上的完整浏览历史
- 搜索查询:学生搜索的一切
- 电子邮件内容:扫描Gmail以查找令人担忧的内容
- Google云端硬盘文件:访问并扫描文档、演示文稿、电子表格
- YouTube活动:观看的视频、搜索、评论
- 社交媒体:Instagram等平台上的帖子、消息、评论
- 应用使用:使用了哪些应用以及何时使用
- 截图:自动截取标记内容的截图
- 位置数据:在某些配置中包括设备位置
数据如何使用
根据Securly:
- AI训练:学生数据用于改进机器学习模型
- 警报生成:分析与自残、暴力、霸凌相关的关键词和模式
- 活动报告:提供给学校和家长(如果家长选择加入)
- 网页过滤:用于分类和阻止网站
- 第三方共享:一些数据与服务提供商共享(范围不明确)
数据保留
- Securly保留数据"只要有必要"(政策模糊)
- 部分浏览历史存储多年
- 截图和标记内容无限期存储
- 不清楚学生毕业后数据会怎样
法律框架:FERPA和COPPA
FERPA(家庭教育权利和隐私法)
保护学生教育记录的联邦法律:
- 学校必须获得家长同意才能共享学生数据(有例外)
- "学校官员"例外允许与Securly等供应商共享
- 供应商必须仅将数据用于"合法教育目的"
- 问题:对学生数据进行AI训练是否属于"合法教育目的"?
COPPA(儿童在线隐私保护法)
保护13岁以下儿童在线隐私的联邦法律:
- 公司必须在收集13岁以下儿童的数据之前获得家长同意
- 学校可以代表家长为"教育目的"提供同意
- 问题:监控社交媒体和电子邮件是"教育性的"吗?
法律灰色地带
隐私倡导者认为Securly在法律灰色地带运营:
- 学校代表家长同意,但家长通常不知道监控的范围
- 数据收集超出了CIPA对网页过滤的要求
- 将学生数据用于AI训练可能不符合"教育目的"
- 监控延伸到个人时间(当学生在家使用学校设备时)
比较:Securly vs. 注重隐私的替代方案
| 方面 | Securly | WhitelistVideo |
|---|---|---|
| 主要用例 | 全校监控 | 家庭YouTube控制 |
| 收集的数据 | 浏览历史、电子邮件、社交媒体、位置、截图 | 仅批准的频道列表(无活动跟踪) |
| 谁可以访问数据 | 学校、Securly、可能的第三方 | 仅家长(WhitelistVideo不访问数据) |
| 数据保留 | 无限期(政策模糊) | 无活动数据需要保留 |
| 方法 | 全面监控+过滤 | 通过白名单预防(无监控) |
| 隐私影响 | 高-追踪所有数字活动 | 低-仅控制YouTube访问 |
| 学生知情度 | 通常不知道监控范围 | 透明-孩子知道哪些频道被批准 |
| 范围 | 所有应用、网站、通信 | 仅YouTube |
| 用数据进行AI训练 | 是(在隐私政策中披露) | 否 |
为什么学校尽管有隐私担忧仍使用Securly
CIPA合规要求
接受E-Rate资助(联邦互联网补贴)的学校必须遵守CIPA,这要求:
- 网页过滤以阻止淫秽、色情和有害内容
- 监控学生互联网使用
- 在线安全教育
Securly提供了满足这些要求的一体化解决方案。
Chromebook生态系统
- 大多数学校使用Google Chromebook(超过75%的K-12设备)
- Securly与Google Workspace for Education无缝集成
- 易于在数千台设备上部署
- Chromebook便宜,使其对学校具有吸引力
学生安全担忧
- 如果学生伤害自己,学校面临法律责任
- 在引人注目的学生自杀事件后,学校感到监控警告信号的压力
- 针对自残语言的AI警报提供了感知的安全网
- 如果将监控定位为"自杀预防",家长通常会支持
行政便利
- Securly为IT管理员提供中央仪表板
- 减少对内部过滤基础设施的需求
- 包括学校想要的其他工具(课堂管理、家长门户)
学生体验:感觉如何
学生证词
"我一直对我在学校Chromebook上搜索的内容感到偏执。即使在家里,即使在周末,Securly都在监视。这让我觉得自己像个罪犯。"
"Securly阻止了我为学校项目进行的LGBTQ+历史研究。过滤器将其标记为'性内容',尽管它完全是教育性的。我不得不向老师解释为什么我无法完成作业。"
"我搜索了'抑郁症状',因为我担心一个朋友。Securly向我的辅导员和父母发送了警报。我试图帮助别人,现在我的家人认为我有自杀倾向。我再也不会搜索心理健康信息了。"
寒蝉效应
研究表明,全面监控会造成:
- 自我审查:学生避免搜索合法但敏感的话题
- 减少寻求帮助:对警报的恐惧阻止学生研究心理健康
- 信任侵蚀:学生感觉学校不信任他们
- 规避行为:学生使用个人设备进行任何私人事务,破坏了安全目标
家长可以做什么
如果您孩子的学校使用Securly
- 了解正在监控什么:向学校索取关于Securly数据收集的文档
- 询问退出选项:一些学区允许家长退出(许多不允许)
- 限制在家使用学校设备:为非学校活动提供个人设备
- 与孩子对话:解释监控的存在并讨论隐私影响
- 倡导政策变更:与其他家长合作推动不那么侵入性的替代方案
对于家庭设备:选择注重隐私的工具
您对家庭设备有更多控制权。考虑:
- WhitelistVideo用于YouTube:控制访问而不跟踪活动
- DNS过滤:阻止类别而不记录单个网站
- 设备原生控制:Apple Screen Time、Google Family Link(比第三方监控侵入性更小)
- 开放沟通:与孩子谈论在线安全,而不是仅仅依赖监控
安装监控软件前要问的问题
- 收集哪些数据?
- 谁可以访问数据?
- 数据保留多长时间?
- 数据是否用于AI训练或其他目的?
- 我的孩子会知道他们被监控吗?
- 我可以退出吗?
- 当我的孩子不再是学生时,数据会怎样?
更广泛的辩论:学生监控
支持学校监控的论点
- 自杀预防:AI警报可以检测处于危机中的学生
- 网络霸凌检测:及早发现有害互动
- CIPA合规:联邦资助所需
- 责任保护:如果学生受到伤害,学校面临诉讼
- 家长支持:许多家长希望学校为安全进行监控
反对学校监控的论点
- 隐私侵犯:学生有宪法权利
- 寒蝉效应:监控压制自由探究和表达
- 无效性:大多数警报是误报,真正的危机经常被遗漏
- 范围蔓延:从网页过滤开始,演变为全面监控
- 不成比例的影响:有色人种和LGBTQ+学生更常被标记
- 数据滥用风险:学生数据容易受到泄露、滥用
研究
关于学校监控的研究表明:
- 很少有证据表明监控可以预防自杀(许多警告信号发生在线下)
- AI警报的误报率为80-95%
- 学生报告对学校的信任降低和寻求帮助减少
- 监控对边缘化学生的影响不成比例
Securly对隐私担忧的回应
官方声明
Securly对隐私担忧的回应声明:
- 数据收集对于AI驱动的安全警报是必要的
- 公司遵守FERPA、COPPA和州隐私法
- 学校控制收集哪些数据以及谁可以访问
- 学生数据不出售给广告商
- 用于AI训练的数据已匿名化
政策变更
针对批评,Securly已经:
- 更新隐私政策以更加透明(2022年)
- 为学校提供更精细的控制
- 提供家长门户,让家长可以看到正在监控什么
- 改进数据保留政策
剩余担忧
尽管有所改变,批评者认为:
- 数据收集仍然超出CIPA的要求
- 学校通常不了解或不配置精细控制
- 家长门户的采用率低(许多家长不知道它的存在)
- 基本模式仍然是全面监控
放弃Securly的学校
由于隐私担忧,几个学区已经停止使用Securly:
- 波特兰公立学校(俄勒冈州):2022年因学生和家长对侵入性的投诉而放弃Securly
- 明尼阿波利斯公立学校(明尼苏达州):在隐私审计后转向较少侵入性的过滤
- 加利福尼亚州各学区:在该州加强学生隐私法后转向替代方案
这些学区通常转向:
- 没有活动监控的基本网页过滤
- 基于人的干预(辅导员、教师)而不是AI警报
- 隐私优先设计的替代方案
为什么WhitelistVideo采取不同的方法
隐私优先设计
WhitelistVideo以隐私为核心原则构建:
- 无活动跟踪:我们不记录孩子观看的视频
- 无个人数据收集:我们不收集姓名、电子邮件、浏览历史
- 无第三方共享:您的白名单保留在您的设备上
- 无AI训练:我们不使用客户数据来训练机器学习模型
- 透明运营:孩子确切知道什么被控制(YouTube频道)以及什么不被控制(其他一切)
预防而非监控
WhitelistVideo预防接触而不是监控它:
- 阻止除批准频道外的所有YouTube
- 无需跟踪活动-不适当的内容永远不会加载
- 家长控制访问边界,孩子在边界内有隐私
有限范围设计
WhitelistVideo仅控制YouTube:
- 不监控消息应用、电子邮件、社交媒体
- 不跟踪位置
- 不读取文档或文件
- 不截屏
我们相信有针对性的预防比全面监控更有效、更尊重人。
学生隐私的未来
立法行动
各州开始加强学生隐私法:
- 加利福尼亚州:加强了SOPIPA(学生在线个人信息保护法)
- 纽约州:要求学校公开列出所有可访问学生数据的第三方供应商
- 伊利诺伊州:对教育技术数据收集有严格的同意要求
注重隐私的替代方案正在出现
- 开源过滤工具(无数据收集)
- 设备端AI(处理在本地进行,而不是在供应商服务器上)
- 注重预防的工具(阻止而不是监控)
- 基于人的干预(辅导员而不是算法)
文化转变
越来越多的人认识到:
- 全面监控损害学生发展
- 隐私是一项权利,而不是特权
- 有效的学生安全不需要全面监控
- 预防和关系比监控和算法更有效
结论:隐私很重要
Securly争议凸显了学生安全技术中更广泛的紧张关系:学生应该为安全牺牲多少隐私?
关键要点:
- Securly的数据收集远超基本网页过滤
- 超过1,430名家长和学生提出了隐私担忧
- 学校通常不了解他们授权的监控范围
- 学生在自由探究和寻求帮助方面经历寒蝉效应
- 存在注重隐私的替代方案,可以在没有全面监控的情况下提供保护
对于家庭使用:
您可以控制家庭设备。选择尊重隐私同时提供保护的工具。WhitelistVideo在不跟踪活动、不收集个人数据或创建监控基础设施的情况下防止YouTube接触不良内容。
保护和隐私不是相互排斥的。您可以两者兼得。
保护您的孩子而不收集他们的数据
WhitelistVideo通过频道白名单控制YouTube访问——无活动跟踪、无个人数据收集、无监控。只有安全的边界和完整的隐私。
免费试用7天注重隐私的YouTube控制。
常见问题
Securly被指控未经适当同意收集和出售学生数据,违反了FERPA(家庭教育权利和隐私法)和COPPA(儿童在线隐私保护法)。超过1,430名家长和学生签署了请愿书,要求Securly停止数据收集。虽然截至2025年尚未提起重大集体诉讼,但隐私倡导者继续对该公司的数据实践提出担忧。
根据他们的隐私政策和独立审计,Securly收集:浏览历史、搜索查询、应用使用情况、社交媒体活动、电子邮件、Google云端硬盘文件、YouTube活动、标记内容的截图、学生位置数据(在某些配置中)和按键模式。这些数据大部分存储在Securly的服务器上并用于AI训练。
这取决于您学区的政策。Securly通常由学校安装在学校拥有的设备上,许多学区不提供退出选项,因为监控是其学生安全计划的一部分。但是,Securly仅在学校设备上工作——除非您单独安装,否则您孩子在家的个人设备不会被监控。
对于家庭使用,注重隐私的替代方案包括WhitelistVideo(仅限YouTube,除频道批准外不收集数据)、DNS过滤(阻止类别而不记录单个网站)和设备原生家长控制(Apple Screen Time、Google Family Link)。这些工具在不进行全面活动监控或数据收集的情况下控制访问。
Published: December 15, 2025 • Last Updated: December 15, 2025

Dr. David Park
Privacy Law Scholar
Dr. David Park is a legal scholar specializing in children's digital privacy and platform accountability. He holds a J.D. from Harvard Law School and a Ph.D. in Information Science from UC Berkeley. Dr. Park served as senior policy counsel at the Electronic Frontier Foundation for five years, leading initiatives on COPPA enforcement. He currently holds a faculty position at Georgetown Law Center, directing the Institute for Technology Law & Policy's Children's Privacy Project. His scholarship has been published in the Stanford Technology Law Review and Yale Journal of Law & Technology. He is a guest contributor at WhitelistVideo.
您可能还喜欢
Privacy & Trust不窥探的家长控制:建立信任而非监控
WhitelistVideo不读取短信、不追踪位置、不监控消息。了解频道白名单如何在尊重隐私和建立信任的同时保护孩子。
Pain Points像Bark这样的警报式管控:为什么它们来得太晚
像Bark这样的警报式工具在孩子看到不良内容后才通知您。暴露已经发生。了解为什么预防胜于检测。
Pain Points监控 vs 预防:哪种家长控制更有效?
监控应用在孩子接触内容后才能检测到。预防工具在孩子看到之前就将其阻止。了解哪种方法对YouTube最有效。


