Social media platforms, especially Facebook parenting groups, have long been used as informal support networks for mothers seeking advice and reassurance. However, growing concerns about social judgment, privacy exposure, and unreliable information are changing how mothers seek help. This exploratory mixed-method study examines why mothers are moving from Facebook parenting groups to large language models such as ChatGPT and Gemini. We conducted a cross-sectional online survey of 109 mothers. Results show that 41.3% of participants avoided Facebook parenting groups because they expected judgment from others. This difference was statistically significant across location and family structure. Mothers living in their home country and those in joint families were more likely to avoid Facebook groups. Qualitative findings revealed three themes: social judgment and exposure, LLMs as safe and private spaces, and quick and structured support. Participants described LLMs as immediate, emotionally safe, and reliable alternatives that reduce social risk when asking for help. Rather than replacing human support, LLMs appear to fill emotional and practical gaps within existing support systems. These findings show a change in maternal digital support and highlight the need to design LLM systems that support both information and emotional safety.


翻译:长期以来,社交媒体平台,尤其是Facebook育儿群组,一直是母亲寻求建议和情感支持的民间互助网络。然而,日益增长的对社会评判、隐私泄露及信息可靠性的担忧,正在改变母亲寻求帮助的方式。这项探索性混合方法研究探讨了母亲为何从Facebook育儿群组转向ChatGPT和Gemini等大型语言模型。我们对109位母亲进行了横断面在线调查。结果显示,41.3%的参与者因预期会遭受他人评判而避免使用Facebook育儿群组,该现象在地域和家庭结构维度均呈现统计学显著差异。居住在本国及生活在联合家庭中的母亲更倾向于回避Facebook群组。定性分析揭示了三大主题:社会评判与隐私暴露、LLM作为安全私密空间、快速结构化支持。参与者将LLM描述为即时、情感安全且可靠的替代方案,能有效降低求助时的社会风险。LLM并非取代人际支持,而是在现有支持体系中填补了情感与实践需求的空缺。这些发现揭示了母亲数字支持方式的转变,并凸显了设计兼具信息支持与情感安全保障的LLM系统的必要性。

0
下载
关闭预览

相关内容

Facebook 是一个社交网络服务网站,于 2004 年 2 月 4 日上线。从 2006 年 9 月到 2007 年 9 月间,该网站在全美网站中的排名由第 60 名上升至第 7 名。同时 Facebook 是美国排名第一的照片分享站点。 2012年 2 月 1 日,Facebook向美国证券交易委员会提交集资规模为 50 亿美元的上市申请。
大型语言模型中隐性与显性偏见的综合研究
专知会员服务
16+阅读 · 2025年11月25日
综述:面向移动端大语言模型的隐私与安全
专知会员服务
19+阅读 · 2025年9月7日
大语言模型中的提示隐私保护
专知会员服务
24+阅读 · 2024年7月24日
《利用大型语言模型检测社交平台上的网络欺凌行为》
专知会员服务
44+阅读 · 2024年1月23日
专知会员服务
28+阅读 · 2021年8月15日
搜索query意图识别的演进
DataFunTalk
13+阅读 · 2020年11月15日
【专题】Facebook遭德国反垄断调查及其影响分析
蚂蚁金服评论
17+阅读 · 2019年4月1日
深度学习在金融文本情感分类中的应用
AI前线
36+阅读 · 2019年1月12日
揭秘AI识别虚假新闻背后的原理
DeepTech深科技
10+阅读 · 2018年8月5日
漫谈机器阅读理解之Facebook提出的DrQA系统
深度学习每日摘要
18+阅读 · 2017年11月19日
【社交网络】一文读懂社交网络分析
产业智能官
15+阅读 · 2017年10月14日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
12+阅读 · 2020年6月20日
VIP会员
相关资讯
搜索query意图识别的演进
DataFunTalk
13+阅读 · 2020年11月15日
【专题】Facebook遭德国反垄断调查及其影响分析
蚂蚁金服评论
17+阅读 · 2019年4月1日
深度学习在金融文本情感分类中的应用
AI前线
36+阅读 · 2019年1月12日
揭秘AI识别虚假新闻背后的原理
DeepTech深科技
10+阅读 · 2018年8月5日
漫谈机器阅读理解之Facebook提出的DrQA系统
深度学习每日摘要
18+阅读 · 2017年11月19日
【社交网络】一文读懂社交网络分析
产业智能官
15+阅读 · 2017年10月14日
相关基金
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员