Die Generative AI Solutions Corp. gab die Gründung von MAI Cloud(TM) bekannt, ihrem Cloud-Service für künstliche Intelligenz ("KI"), der High-Performance Computing ("HPC")-Leistung für KI-Computing-Anforderungen bereitstellen wird, einschließlich schneller Verarbeitungsleistung, großer Speicherkapazität und modernster Softwareanwendungen, die alle über die Cloud über das Internet auf einer Pay-as-you-go-Basis bereitgestellt werden. Das Unternehmen hat eine hundertprozentige Tochtergesellschaft, MAI Cloud Solutions Inc. gegründet, über die die MAI Cloud(TM) Plattform auf den Markt gebracht werden soll.

MAI Cloud Solutions Inc. beabsichtigt, NVIDIA A100 und H100 zu verwenden, um die MAI Cloud(TM) Plattform zu betreiben und bemüht sich derzeit um Hosting-Vereinbarungen mit Drittanbietern. Die NVIDIA A100 und H100 sind spezialisierte Grafikprozessoren ("GPUs"), die für KI-Computing und Deep-Learning-Aufgaben entwickelt wurden. Eines der bemerkenswerten Merkmale der A100 und H100 GPUs sind ihre Tensor Core Technologien.

Tensor-Cores sind Hardware-Beschleuniger, die für die effiziente Durchführung von Matrixoperationen entwickelt wurden, die für KI-Berechnungen von grundlegender Bedeutung sind, wie z.B. Matrixmultiplikationen und Faltungen. Tensor-Cores ermöglichen schnellere Trainings- und Inferenzzeiten für tiefe neuronale Netze und verbessern so die Gesamteffizienz von KI-Workloads. MAI Cloud(TM) wird es seinen Kunden ermöglichen, auf Ressourcen zuzugreifen und diese zu nutzen, ohne dass sie eine physische Infrastruktur oder Hardware in ihren Räumlichkeiten benötigen.

KI-Algorithmen benötigen erhebliche Rechenleistung und große Datensätze für das Training und die Inferenz, die effizient in der Cloud gehostet und verwaltet werden können. MAI Cloud(TM) bietet skalierbare und bedarfsgerechte Computing-Ressourcen, die es Unternehmen ermöglichen, ihre KI-Anforderungen problemlos zu erhöhen oder zu verringern und so schnellere und effizientere Trainings- und Inferenzprozesse zu ermöglichen.