在AI开发过程中,应该选择本地GPU系统还是云端?这就像是选择买房还是租房一样。租房所需的前期资金较少,现收现付,家用电器和房屋维护的工作全部由业主负责。而租房者则去留相对自由,只要符合合同条款规定,就能相对自由地选择何时离开。租赁云端GPU与租赁房屋类似,有着相同的优势:资金门槛低;由云服务供应商提供支持;并且相对自由,能够快速地向上或向下扩展不同规模的计算集群。而买房则相对的是一种一次性的、成本固定的投资——一旦你购买了一处房产,你想呆多久就呆多久。而且业主对于房子拥有完全的主权,没有租赁协议的限制,业主想怎么用就怎么用,即便是邀请几个亲朋好友来住一段时间,也是可以的。这和投资本地GPU的理由是一样的:只要是在硬件设备的可处理范围内,用户可以在一套本地化系统上想用多久就用多久,想运行几个项目就运行几个项目。而且还可以自由地尝试不同方法,使其变得更容易迭代,而无需考虑成本问题。而且,对于诸如财务信息或医疗记录等敏感数据来说,把所有这些数据内容保护在企业机构的防火墙之内是十分有必要的。根据当前的用例和所涉及的数据类型,开发人员可以选择在桌面系统、本地数据中心或是在云端构建他们的AI工具。而在整个开发过程中——在从**初的实验到大规模应用,他们很有可能会因为在不同的时间点有不同需求,而从一个环境迁移到另一个环境中。云端GPU应用云端GPU可被用于多种任务中,如训练多语言AI语音引擎、检测糖尿病导致失明的早期迹象,以及开发媒体压缩技术。借助于云端GPU,创业公司、学者和创作者们可以快速开始工作,探索新的想法和实验,而无需长期关注于特定规模或配置的GPU。用户可以通过所有主流云平台访问NVIDIA数据中心GPU,包括:阿里云, AWS, 谷歌云, IBM Cloud, Microsoft Azure 和Or**e Cloud Infrastructure。