HawkInsight

  • 联系我们
  • App
  • 中文

人工智能存在版权问题-去中心化网络有解决方案吗?

人工智能就像一个早熟的孩子。它向周围的世界学习,吸收数据,处理数据,并试图理解这一切。

人工智能就像一个早熟的孩子。它向周围的世界学习,吸收数据,处理数据,并试图理解这一切。孩子们从一系列媒体中学习--书籍;图片;声音;电视节目;互联网--人工智能也是如此。就像幼儿一样,它渴望知识,并且能够以惊人的速度学习。

但是,虽然孩子们可以自由地从他们能感觉到的任何事物中汲取线索,但人工智能却没有这种奢侈。或者至少不应该。理论上,人工智能应该只接受无版权数据的培训。在实践中,他们收到的数据往往并非如此。正如多起知识产权侵权案件所表明的那样,人工智能有一个坏习惯,那就是复制别人的作业,然后将其复制成自己的作业。

随着人工智能的激增并变得更加渴望原始数据,这个问题变得越来越明显。一方面,我们希望生活在一个人工智能创新蓬勃发展、每个人都能从互联网以来最具变革性的技术中受益的世界。但与此同时,内容创作者和许可证持有者应该为他们的作品获得补偿,这是公平的--无论是人类还是机器重新利用了它。

去中心化网络建立在web 3透明度和开放访问的核心原则之上,为人工智能培训数据提供更公平的解决方案,让所有参与者都受益。但它真的能兑现这一承诺并培育一个更加公平的人工智能行业,最终消除版权索赔吗?

集中式人工智能无法阻止收件箱

争议的核心在于生成性人工智能模型如何获取知识。大多数大规模模型都是在从互联网上抓取的数据集上训练的,通常没有获得创建者的明确许可。虽然人工智能公司认为这构成了合理使用,但许多出版商、艺术家和作家不同意,导致了一波法律诉讼和公众的强烈抗议。

这个问题不仅限于版权侵犯;它还涉及控制权。当少数公司规定数据使用规则并从基于该数据训练的模型中获利时,系统本质上缺乏问责制。此外,创作者几乎没有办法跟踪、管理其知识产权的使用或获得报酬。

ChatGPT和类似生成模型的出现似乎是人工智能的决定性胜利,直到“合理使用”问题浮出水面。世界各地的出版商和艺术家指责大型人工智能实验室未经明确许可就对受版权保护的作品进行模型训练。这场争论已经从低语演变成一场关于谁拥有明天人工智能背后的数据的全球对话。

ChatGPT的培训数据似乎包括受版权保护的内容,从书籍到新闻文章。尽管该公司声称合理使用,但批评者并不相信。如果我们依赖大型人工智能实验室进行自治--如果他们的幕后运作仍然不透明--我们真的能确保创作者的权利得到尊重吗?

虽然传统的设置依赖于人工智能实验室的内部道德委员会或许可协议来确定哪些数据可以或不可以使用,但去中心化的人工智能承诺了一个更透明的框架。贡献者、节点运营商和较小的“人工智能中心”组成的网络共同决定数据摄入、模型架构和使用权。换句话说,没有一个实体规定哪些受版权保护的作品是公平的游戏。至少理论上是这样的。但这一愿景在实践中是什么样子呢?

去中心化人工智能在行动

与数据收集和模型训练由单个实体控制的集中式模型不同,去中心化人工智能通过网络分配这些职责。这种设置允许对数据源进行透明治理,使创作者能够选择加入或退出用于培训的工作。

通过智能合同和代币化,去中心化系统可以确保所有贡献者都得到公平的补偿。更重要的是,这种方法提供了不可变的审计跟踪,使其能够验证数据集是否符合法律和道德标准。

SingualityNET是人工智能服务的孵化器,展示了去中心化如何使人工智能开发民主化。该平台使开发人员能够访问人工智能工具,同时确保贡献者获得公平奖励,并监督DeFi、机器人技术、生物技术和长寿、游戏和媒体、艺术和娱乐(音乐)以及企业级人工智能等垂直领域的市场。

它也是ATI(人工超级智能计划)的关键参与者,专注于特定领域的人工智能模型。这些模型专为机器人或医疗保健等行业量身定制,依赖于精心策划的数据集,其中可以严格管理同意和合规性。ATI的蓝图涉及透明的数据策展和模型治理,以便每个特定领域的人工智能都有一个可跟踪的训练数据来源。

ATI对领域特定性的强调使其特别适合应对版权的复杂性。通过专注于利基应用程序的目标数据集,ATI避免了大规模抓取的陷阱,同时保持高性能人工智能所需的稳健性。这种方法与去中心化人工智能的更广泛目标一致:确保所有利益相关者--创作者、用户和开发者--都从行业增长的好处中受益。

SingualityNET和ATI旨在将有关数据使用和模型调优的决策交给分布式集体而不是单个企业实体。可以将其视为从“相信我们,我们会想出办法”到“让我们以公开负责的方式共同想出办法”的战略支点。

为什么去中心化人工智能很重要

通过将培训和验证过程分布在多个贡献者之间,去中心化网络可以对数据实施清晰的、社区驱动的制衡。每一条内容都可以被跟踪、验证,甚至如果引起担忧,则被排除。知识产权所有者有机会选择加入或退出,节点运营商可以执行基于共识的规则。这并不能完全消除复杂性--版权法仍然错综复杂--但它确实将透明度嵌入了网络的核心。

这股日益壮大的去中心化人工智能浪潮旨在解决的不仅仅是版权问题:它针对人工智能系统的整个生命周期,从数据摄入到链上治理。其想法是,任何用于训练模型的内容都可以追溯到其来源,从而允许公平的许可协议或适当的补偿。从本质上讲,如果底层社区决定数据属于禁区,那么大型聚合器就不会躲在合理使用背后。

在充满法律不确定性和大型科技举报人揭露的环境下,去中心化的人工智能可能只是补救措施。如果该行业想要在不疏远或伤害创意社区的情况下继续创新,开辟一条更加开放的道路至关重要。满足明天人工智能的需求并不一定意味着超越版权的界限。相反,它可以利用最佳的分布式决策和web 3技术,为创作者、开发者和人工智能用户绘制更公平、更具包容性的未来。

通过将控制权重新交到创作者和社区手中,去中心化人工智能有可能重新定义我们在人工智能时代对所有权和数据的看法。

人工智能就像一个早熟的孩子。它向周围的世界学习,吸收数据,处理数据,并试图理解这一切。孩子们从一系列媒体中学习--书籍;图片;声音;电视节目;互联网--人工智能也是如此。就像幼儿一样,它渴望知识,并且能够以惊人的速度学习。

但是,虽然孩子们可以自由地从他们能感觉到的任何事物中汲取线索,但人工智能却没有这种奢侈。或者至少不应该。理论上,人工智能应该只接受无版权数据的培训。在实践中,他们收到的数据往往并非如此。正如多起知识产权侵权案件所表明的那样,人工智能有一个坏习惯,那就是复制别人的作业,然后将其复制成自己的作业。

随着人工智能的激增并变得更加渴望原始数据,这个问题变得越来越明显。一方面,我们希望生活在一个人工智能创新蓬勃发展、每个人都能从互联网以来最具变革性的技术中受益的世界。但与此同时,内容创作者和许可证持有者应该为他们的作品获得补偿,这是公平的--无论是人类还是机器重新利用了它。

去中心化网络建立在web 3透明度和开放访问的核心原则之上,为人工智能培训数据提供更公平的解决方案,让所有参与者都受益。但它真的能兑现这一承诺并培育一个更加公平的人工智能行业,最终消除版权索赔吗?

集中式人工智能无法阻止收件箱

争议的核心在于生成性人工智能模型如何获取知识。大多数大规模模型都是在从互联网上抓取的数据集上训练的,通常没有获得创建者的明确许可。虽然人工智能公司认为这构成了合理使用,但许多出版商、艺术家和作家不同意,导致了一波法律诉讼和公众的强烈抗议。

这个问题不仅限于版权侵犯;它还涉及控制权。当少数公司规定数据使用规则并从基于该数据训练的模型中获利时,系统本质上缺乏问责制。此外,创作者几乎没有办法跟踪、管理其知识产权的使用或获得报酬。

ChatGPT和类似生成模型的出现似乎是人工智能的决定性胜利,直到“合理使用”问题浮出水面。世界各地的出版商和艺术家指责大型人工智能实验室未经明确许可就对受版权保护的作品进行模型训练。这场争论已经从低语演变成一场关于谁拥有明天人工智能背后的数据的全球对话。

ChatGPT的培训数据似乎包括受版权保护的内容,从书籍到新闻文章。尽管该公司声称合理使用,但批评者并不相信。如果我们依赖大型人工智能实验室进行自治--如果他们的幕后运作仍然不透明--我们真的能确保创作者的权利得到尊重吗?

虽然传统的设置依赖于人工智能实验室的内部道德委员会或许可协议来确定哪些数据可以或不可以使用,但去中心化的人工智能承诺了一个更透明的框架。贡献者、节点运营商和较小的“人工智能中心”组成的网络共同决定数据摄入、模型架构和使用权。换句话说,没有一个实体规定哪些受版权保护的作品是公平的游戏。至少理论上是这样的。但这一愿景在实践中是什么样子呢?

去中心化人工智能在行动

与数据收集和模型训练由单个实体控制的集中式模型不同,去中心化人工智能通过网络分配这些职责。这种设置允许对数据源进行透明治理,使创作者能够选择加入或退出用于培训的工作。

通过智能合同和代币化,去中心化系统可以确保所有贡献者都得到公平的补偿。更重要的是,这种方法提供了不可变的审计跟踪,使其能够验证数据集是否符合法律和道德标准。

SingualityNET是人工智能服务的孵化器,展示了去中心化如何使人工智能开发民主化。该平台使开发人员能够访问人工智能工具,同时确保贡献者获得公平奖励,并监督DeFi、机器人技术、生物技术和长寿、游戏和媒体、艺术和娱乐(音乐)以及企业级人工智能等垂直领域的市场。

它也是ATI(人工超级智能计划)的关键参与者,专注于特定领域的人工智能模型。这些模型专为机器人或医疗保健等行业量身定制,依赖于精心策划的数据集,其中可以严格管理同意和合规性。ATI的蓝图涉及透明的数据策展和模型治理,以便每个特定领域的人工智能都有一个可跟踪的训练数据来源。

ATI对领域特定性的强调使其特别适合应对版权的复杂性。通过专注于利基应用程序的目标数据集,ATI避免了大规模抓取的陷阱,同时保持高性能人工智能所需的稳健性。这种方法与去中心化人工智能的更广泛目标一致:确保所有利益相关者--创作者、用户和开发者--都从行业增长的好处中受益。

SingualityNET和ATI旨在将有关数据使用和模型调优的决策交给分布式集体而不是单个企业实体。可以将其视为从“相信我们,我们会想出办法”到“让我们以公开负责的方式共同想出办法”的战略支点。

为什么去中心化人工智能很重要

通过将培训和验证过程分布在多个贡献者之间,去中心化网络可以对数据实施清晰的、社区驱动的制衡。每一条内容都可以被跟踪、验证,甚至如果引起担忧,则被排除。知识产权所有者有机会选择加入或退出,节点运营商可以执行基于共识的规则。这并不能完全消除复杂性--版权法仍然错综复杂--但它确实将透明度嵌入了网络的核心。

这股日益壮大的去中心化人工智能浪潮旨在解决的不仅仅是版权问题:它针对人工智能系统的整个生命周期,从数据摄入到链上治理。其想法是,任何用于训练模型的内容都可以追溯到其来源,从而允许公平的许可协议或适当的补偿。从本质上讲,如果底层社区决定数据属于禁区,那么大型聚合器就不会躲在合理使用背后。

在充满法律不确定性和大型科技举报人揭露的环境下,去中心化的人工智能可能只是补救措施。如果该行业想要在不疏远或伤害创意社区的情况下继续创新,开辟一条更加开放的道路至关重要。满足明天人工智能的需求并不一定意味着超越版权的界限。相反,它可以利用最佳的分布式决策和web 3技术,为创作者、开发者和人工智能用户绘制更公平、更具包容性的未来。

通过将控制权重新交到创作者和社区手中,去中心化人工智能有可能重新定义我们在人工智能时代对所有权和数据的看法。

免责声明:本文观点来自原作者,不代表Hawk Insight的观点和立场。文章内容仅供参考、交流、学习,不构成投资建议。如涉及版权问题,请联系我们删除。