提供生成式人工智能的面向消费者的工具的爆炸式增长引发了大量争论:这些工具有望改变我们的生活和工作方式,同时也提出了一些根本性的问题,即我们如何适应一个它们被广泛用于任何事情的世界。
就像任何新技术在最初的流行和兴趣浪潮中一样,在使用这些人工智能生成器和机器人的方式上要小心,尤其是在你为了能够使用它们而放弃了多少隐私和安全方面。
根据数据收集和处理的方式,在您使用这些工具的旅程开始时设置一些护栏是值得的,或者实际上决定根本不处理它们。以下是你需要注意的,以及你可以重新获得一些控制权的方法。
请务必在使用前查看隐私政策确保人工智能工具对数据的使用方式诚实。
OpenAI由David Nield提供在使用应用程序之前检查应用程序的条款和条件是一件苦差事,但值得付出努力——你想知道你同意了什么。从社交媒体到旅行计划,使用一款应用程序通常意味着将你输入的所有内容的权利交给它背后的公司,有时甚至是他们能了解到的关于你的所有信息。
例如,OpenAI的隐私政策可以在这里找到——这里有更多关于数据收集的信息。默认情况下,你和ChatGPT谈论的任何事情都可以用来帮助它的底层大型语言模型(LLM)“学习语言,以及如何理解和回应语言”,尽管个人信息不会被用来“建立关于人们的档案,联系他们,向他们做广告,试图向他们出售任何东西,或者出售信息本身”。
个人信息也可能用于改进OpenAI的服务以及开发新的程序和服务。简而言之,它可以访问您在DALL-E或ChatGPT上所做的一切,并且您相信OpenAI不会对它做任何可疑的事情(并有效地保护其服务器免受黑客攻击)。
谷歌的隐私政策也是如此,你可以在这里找到。这里还有一些关于Google Bard的额外说明:你输入聊天机器人的信息将被收集,“以提供、改进和开发谷歌的产品和服务以及机器学习技术。”与谷歌从你身上获得的任何数据一样,Bard数据可能会被用来个性化你看到的广告。
注意你分享的内容上传自己的脸进行人工智能治疗可能不是个好主意。
OpenAI由David Nield提供从本质上讲,你输入或使用AI工具制作的任何内容都可能被用于进一步完善AI,然后被开发者使用。考虑到这一点,以及永远无法完全排除的数据泄露的持续威胁,在输入这些引擎时要非常谨慎,这是值得的。
例如,当涉及到产生人工智能增强版你的脸的工具时——它们的数量似乎在不断增加——我们不建议使用它们,除非你很高兴看到人工智能生成的像你自己一样的脸出现在别人的创作中。
就文本而言,要完全避开任何个人、私人或敏感信息:我们已经看到部分聊天记录因漏洞而泄露。虽然让ChatGPT总结你公司的季度财务业绩或写一封包含你的地址和银行详细信息的信可能很诱人,但这些信息最好不要放在这些生成式人工智能引擎中——尤其是因为,正如微软承认的那样,一些人工智能提示是由员工手动审查的,以检查是否有不当行为。
公平地说,这是AI开发者所警告的。谷歌警告说:“不要在你的Bard对话中包含机密或敏感信息。”而OpenAI鼓励用户“不要分享任何敏感内容”,因为这些内容可能会通过共享链接功能传播到更广泛的网络上。如果你不想让它出现在公共场合或在AI输出中使用,那就留给自己。
更改设置如果需要,Google Bard数据可以自动删除。
谷歌通过大卫·尼尔德你已经决定你可以接受隐私政策,你要确保你没有过度分享——最后一步是探索你选择的人工智能工具中的隐私和安全控制。好消息是,大多数公司都使这些控制相对可见且易于操作。
Google Bard效仿Gmail或谷歌地图等其他谷歌产品:你可以选择在一段时间后自动删除你提供给它的数据,或者自己手动删除数据,或者让谷歌无限期保留这些数据。要找到巴德的控制,请前往这里并做出选择。
与谷歌一样,微软也在其其他产品的安全和隐私设置中加入了人工智能数据管理选项。点击这里找到你使用微软产品的所有隐私选项,然后点击搜索历史来查看(如果必要的话删除)你与必应AI聊天的任何内容。
当在网络上使用ChatGPT时,点击你的电子邮件地址(左下角),然后选择设置和数据控制。您可以在这里阻止ChatGPT使用您的对话来训练其模型,但同时您将失去对聊天历史记录功能的访问权限。对话也可以通过点击主屏幕上它们旁边的垃圾桶图标单独从记录中删除,或者通过点击您的电子邮件地址和清除对话和确认清除对话来删除它们。