利用人工智能的性能和可扩展性重新定义多云
对于单纯的文档和单一图像类型的工作负载,兆兆字节和兆兆字节的存储负载曾经是司空见惯的事情,而现在,PB(1K TB)甚至一些EB(1K PB)的工作正在生产中.
赞助功能鉴于企业现在部署人工智能应用程序的日益增长的趋势,对高效的新数据存储解决方案的迫切需求.
推动人工智能应用程序繁荣的因素包括从面部识别软件到流媒体服务的推荐引擎的各种应用中都使用的大语言模型(LLM),所有这些都是为了改善用户体验和业务流程.
在各个行业,对自动化、数据分析和智能决策的需求越来越大.
人工智能可以自动执行重复性任务,分析海量数据集以发现模式,并做出数据驱动的预测或建议.
这将潜在地提高各个领域的效率、生产力和创新.
所有这一切都需要来自社交网络、GPS发射器、安全摄像头、销售点位置、偏远气象站和无数其他来源的大量数据.
这一趋势需要高性能的存储解决方案来处理AI培训和推理中涉及的大量非结构化数据,这些数据可以分布在内部和云环境中.
最近IEEE Spectrum的一份报告《为什么AI需要比以往更多的内存》探讨了AI系统不断增长的数据存储需求,特别是关注不断增长的LLM的大小.
这表明,除了对高性能、低功耗、低成本和高容量的需求外,对内存中或内存附近的更智能管理功能的需求也在不断增长,以最大限度地减少数据移动.
因此,部署混合云的趋势越来越大,所有这些都是可能的.
传统上,人工智能的实施一直以孤立的解决方案和支离破碎的基础设施为标志.
戴尔技术公司首席产品经理Kshitij Tambe表示:“当你的应用程序和工具主要在云中运行时,用户必须将他们的数据放在离这些工具和应用程序运行的地方更近的地方.
”“因此,现在如果你的数据在本地,你正在构建一些工具和应用程序在云中运行,那么就会有很大的差异.
如果你有一个东西在云中运行,而企业数据在数据中心,这就会变得非常有问题.
所以这就是对这些混合云模型的需求.
”为什么RAG向AI系统添加更多的数据,它们是强大的,需要大量的存储,但提供AI应用程序和工作负载基础的LLM只能根据它们的训练来生成响应.
为了解决这个问题并确保对最新信息的访问,一些人工智能系统利用了一个称为检索增强生成(RAG)的过程.
RAG将信息检索与提示集成在一起,允许LLM访问和利用外部知识存储.
这种方法需要存储基本LLM及其检索的海量数据以供实时使用.
随着公司--尤其是历史悠久的公司--多年来在数据中心、边缘和云部署中构建和使用许多不同类型的存储和存储设备,同时管理跨多个位置的数据成为一个复杂的问题.
一些存储管理员不愿付出的代价是,无论公司的存储工作负载位于世界各地,都可以通过单一屏幕实时查看这些工作负载,无论这些工作负载是否处于生产状态!.