我最近写了一篇关于 中型 关于人工智能对机构和研究人员的影响。作为一个机构,我们有一个工作小组在研究人工智能,以及如何在我们的工作中使用它,或者不使用。我怀疑我们还有很长的路要走,但我认为值得分享一些开始出现的东西。
其中一些是我们作为一个工作组合作的结果。还有一些是在我们正在进行的实践评估中出现的。我的免责声明是我们仍在学习,所以我保留在我们收集更多信息时改变我的观点的权利。
隐私、IP所有权和ChatGPT
我们决定进行自己的研究,创建一个我们拥有的数据集,这样我们就能完全控制与上传数据或部分数据到ChatGPT相关的任何风险。不用说,任何上传到ChatGPT的数据都应该是匿名的。但是,还有一个数据所有权的问题,了解你上传的数据会发生什么,这一点很重要。
我问道 聊天室GPT 关于这一点以及我的数据会发生什么,起初的答复是令人放心的。我问了以下问题:
如果我把我的研究采访数据上传到 ChatGPT是否成为训练数据的一部分?
ChatPGT提供了以下答案:
不,将您的研究访谈数据上传到ChatGPT并不会使其成为训练数据的一部分。作为一个人工智能语言模型,ChatGPT没有能力纳入或保留个人用户的特定数据输入。像ChatGPT这样的模型的训练过程是单独进行的,涉及模型开发者收集的大规模数据集。
然而,在进一步探究并建议我的互动涉及上传数据和提出问题时,它的回答变成了:
你是对的。当你上传数据并提出相关问题时,这些互动可以被记录下来,并可能被OpenAI用来改进模型。这包括您上传的数据,您提出的问题,以及模型的反应。
我不确定这是否是一件坏事。模型中的数据越多,它就越准确。但重要的是要了解正在发生什么。大多数客户的合同都有知识产权条款,我所看到的那些合同总是将数据的所有权划归客户。这就意味着未经许可不能上传数据。
聊天室中的偏见GPT
随着时间的推移,我们都将成为 "提示工程师",提高我们向ChatGPT和其他人工智能提出更好问题的能力。然而,我们需要明白,虽然像ChatGPT这样的人工智能模型可以成为有价值的工具,但它们也有局限性和潜在的偏见,需要加以考虑。训练数据中存在偏见,由于缺乏背景,存在概括性,而且会有质量和准确性的问题。
ChatGPT是在互联网的大量文本数据上训练的,这可能会引入数据中存在的偏见。如果训练数据包含有偏见或不具代表性的观点,这些偏见就会反映在模型的反应和分析中。如果你问ChatGPT,它会说?OpenAI在培训过程中努力减轻偏见?",但某种程度的偏见可能仍然存在。
ChatGPT的工作方式,是作为一个语言模型。它根据训练数据中的模式和例子来生成反应。这意味着它可能无法完全理解研究访谈的具体背景或细微差别,除非明确提供这些方面的信息,这是一个及时的工程挑战。在与ChatGPT探讨这一领域时,它告诉我:?重要的是要考虑到,ChatGPT的反应可能并不总是准确地捕捉到人类经验的复杂性和深度。?.当然,这是研究的核心,对我来说,这将是我们如何利用人工智能进行分析的最大挑战。
而且正如我所指出的,也可能存在质量和准确性问题。虽然ChatGPT是一个强大的语言模型,但它并不是无懈可击的。生成的回答有时可能是不正确的,无意义的,或不一致的。因此,我们可以使用ChatGPT来协助我们的分析,但重要的是要验证并与其他来源的生成的分析进行交叉对比,以确保准确性和可靠性。这就是研究者的作用。
因此,虽然ChatGPT最终可能成为研究和分析的宝贵工具,但至少现在应该谨慎使用,并与有经验的研究人员的专业知识相结合。到目前为止,它可以作为探索和假设生成的起点,但人的判断、批判性思维和验证对于可靠的研究分析仍然至关重要。
如果你想了解更多关于我们如何探索人工智能以及我们的工作成果,请通过电子邮件与我们联系,地址是 hello@ux247.com.