The advent of Artificial Intelligence (AI) tools, such as Large Language Models, has introduced new possibilities for Qualitative Data Analysis (QDA), offering both opportunities and challenges. To help navigate the responsible integration of AI into QDA, we conducted semi-structured interviews with 15 Human-Computer Interaction (HCI) researchers experienced in QDA. While our participants were open to AI support in their QDA workflows, they expressed concerns about data privacy, autonomy, and the quality of AI outputs. In response, we developed a framework that spans from minimal to high AI involvement, providing tangible scenarios for integrating AI into QDA practices while addressing researchers' needs and concerns. Aligned with real-life QDA workflows, we identify potential for AI tools in areas such as data pre-processing, researcher onboarding, or conflict mediation. Our framework aims to provoke further discussion on the development of AI-supported QDA and to help establish community standards for responsible Human-AI collaboration.


翻译:以大型语言模型为代表的人工智能工具的出现,为定性数据分析带来了新的可能性,既创造了机遇也带来了挑战。为探索AI在QDA中负责任地整合路径,我们对15位具有QDA经验的人机交互研究者进行了半结构化访谈。尽管参与者对在QDA工作流程中引入AI支持持开放态度,但他们也对数据隐私、自主权和AI输出质量表示担忧。为此,我们构建了一个从最低程度到高度AI参与的框架,通过具体场景展示AI如何融入QDA实践,同时回应研究者的需求与关切。结合现实QDA工作流程,我们识别出AI工具在数据预处理、研究者入门引导和矛盾调解等领域的应用潜力。本框架旨在激发关于AI支持型QDA发展的深入讨论,并助力建立负责任的人机协作社区标准。

0
下载
关闭预览

相关内容

人工智能杂志AI(Artificial Intelligence)是目前公认的发表该领域最新研究成果的主要国际论坛。该期刊欢迎有关AI广泛方面的论文,这些论文构成了整个领域的进步,也欢迎介绍人工智能应用的论文,但重点应该放在新的和新颖的人工智能方法如何提高应用领域的性能,而不是介绍传统人工智能方法的另一个应用。关于应用的论文应该描述一个原则性的解决方案,强调其新颖性,并对正在开发的人工智能技术进行深入的评估。 官网地址:http://dblp.uni-trier.de/db/journals/ai/
人工智能(XAI)可解释性的研究进展!
专知会员服务
9+阅读 · 2024年6月12日
AI可解释性文献列表
专知
43+阅读 · 2019年10月7日
AutoML研究综述:让AI学习设计AI
机器之心
15+阅读 · 2019年5月7日
完备的 AI 学习路线,最详细的资源整理!
新智元
18+阅读 · 2019年5月4日
国家自然科学基金
333+阅读 · 2017年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
47+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
41+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
Arxiv
0+阅读 · 3月5日
VIP会员
相关VIP内容
人工智能(XAI)可解释性的研究进展!
专知会员服务
9+阅读 · 2024年6月12日
相关基金
国家自然科学基金
333+阅读 · 2017年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
47+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
41+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员