Amazon-EC2-Inf1-Instances

Hohe Leistung und niedrige Kosten für Machine-Learning-Inferenz

Warum Amazon EC2 Inf1-Instances?

Unternehmen aus den unterschiedlichsten Branchen setzen auf künstliche Intelligenz (KI)-gestützte Transformation, um Geschäftsinnovationen voranzutreiben, das Kundenerlebnis zu verbessern und Prozesse zu optimieren. Die Modelle für Machine Learning (ML), die KI-Anwendungen antreiben, werden immer komplexer, was zu steigenden Kosten für die zugrunde liegende Recheninfrastruktur führt. Bis zu 90 % der Infrastrukturausgaben für die Entwicklung und den Betrieb von ML-Anwendungen entfallen häufig auf die Inferenz. Kunden sind auf der Suche nach kostengünstigen Infrastrukturlösungen für den Einsatz ihrer ML-Anwendungen in der Produktion.

Amazon-EC2-Inf1-Instances liefern leistungsstarke und kostengünstige ML-Inferenz. Sie bieten einen bis zu 2,3-fach höheren Durchsatz und bis zu 70 % niedrigere Kosten pro Inferenz als vergleichbare Amazon-EC2-Instances. Inf1-Instances sind von Grund auf neu entwickelt worden, um Inferenzanwendungen für ML zu unterstützen. Sie verfügen über bis zu 16 AWS-Inferentia-Chips, leistungsstarke ML-Inferenz-Chips, die von AWS entwickelt und gebaut wurden. Außerdem verfügen Inf1-Instances über Intel-Xeon-Scalable-Prozessoren der 2. Generation und bis zu 100 Gbit/s Netzwerkfähigkeit, um Inferenzen mit hohem Durchsatz zu liefern.

Kunden können Inf1-Instances nutzen, um groß angelegte ML-Inferenzanwendungen wie Suchempfehlungs-Engines, Computervision, Spracherkennung, natürliche Sprachverarbeitung (NLP), Personalisierung und Betrugserkennung ausführen.

Entwickler können ihre ML-Modelle mithilfe des AWS Neuron SDK, das in gängige ML-Frameworks wie TensorFlow, PyTorch und Apache MXNet integriert ist, auf Inf1-Instances anwenden. Sie können weiterhin dieselben ML-Workflows verwenden und Anwendungen nahtlos auf Inf1-Instances migrieren – mit minimalen Code-Änderungen und ohne Bindung an herstellerspezifische Lösungen.

Beginnen Sie ganz einfach mit Inf1-Instances, die Amazon SageMaker, AWS Deep Learning AMIs (DLAMI), die mit Neuron SDK vorkonfiguriert sind, oder Amazon Elastic Container Service (Amazon ECS) oder Amazon Elastic Kubernetes Service (Amazon EKS) für containerisierte ML-Anwendungen verwenden.

Amazon-EC2-Inf1-Instances

Vorteile

Funktionen

Empfehlungen von Kunden und Partnern

Hier sind einige Beispiele dafür, wie Kunden und Partner ihre Geschäftsziele mit Amazon EC2 Inf1-Instances erreicht haben.

  • Snap Inc.

    Wir integrieren ML in viele Aspekte von Snapchat und die Erforschung von Innovationen in diesem Bereich hat für uns oberste Priorität. Als wir von Inferentia hörten, begannen wir, mit AWS zusammenzuarbeiten, um Inf1-/Inferentia-Instances einzuführen, die uns bei der Bereitstellung von ML helfen sollten, auch im Hinblick auf Leistung und Kosten. Wir haben mit unseren Empfehlungsmodellen begonnen und freuen uns darauf, in Zukunft weitere Modelle mit den Inf1-Instances einzuführen.

    Nima Khajehnouri, VP Engineering, Snap Inc.
  • Sprinklr

    Die KI-gesteuerte Unified Customer Experience Management (Unified-CXM, einheitliches Kundenerlebnis-Management)-Plattform von Sprinklr ermöglicht es Unternehmen, Kundenfeedback in Echtzeit über mehrere Kanäle hinweg zu sammeln und in verwertbare Erkenntnisse umzuwandeln – mit dem Ergebnis einer proaktiven Problemlösung, einer verbesserten Produktentwicklung, eines verbesserten Content-Marketings, eines besseren Kundenservices und mehr. Mit Amazon EC2 Inf1 könnten wir die Leistung einer unserer NLP-Modelle wesentlich steigern und auch die Leistung eines unserer Computer-Vision-Modelle verbessern. Wir freuen uns darauf, weiterhin Amazon EC2 Inf1 zu verwenden, um unsere globalen Kunden besser unterstützen zu können.

    Vasant Srinivasan, Senior Vice President of Product Engineering bei Sprinklr
  • Finch Computing

    Unser hochmodernes NLP-Produkt, Finch for Text, bietet den Anwendern die Möglichkeit, mehrere Arten von Entitäten in großen Textmengen zu extrahieren, zu disambiguieren und anzureichern. Finch for Text erfordert beträchtliche Rechenkapazitäten, um unseren Kunden Anreicherungen mit geringer Latenzzeit auf globalen Datenfeeds anbieten zu können. Wir verwenden jetzt AWS-Inf1-Instances in unseren PyTorch-NLP-, Übersetzungs- und Entity-Disambiguierungsmodellen. Wir waren in der Lage, unsere Inferenzkosten mit minimalen Optimierungen um über 80 % zu senken (im Vergleich zu GPUs), während wir unsere Inferenzgeschwindigkeit und -leistung beibehielten. Diese Weiterentwicklung ermöglicht es unseren Kunden, ihre Texte in französischer, spanischer, deutscher und niederländischer Sprache in Echtzeit in Streaming-Datenfeeds und auf globaler Ebene anzureichern – das ist für unsere Kunden aus den Bereichen Finanzdienstleistungen, Datenaggregatoren und öffentlicher Sektor von entscheidender Bedeutung.

    Scott Lightner, Chief Technology Officer bei Finch Computing
  • Dataminr

    Wir informieren über viele Arten von Ereignissen auf der ganzen Welt in vielen Sprachen und in verschiedenen Formaten (Bilder, Video, Audio, Textsensoren, Kombinationen all dieser Typen) aus Hunderttausenden von Quellen. Angesichts dieser Größenordnung ist die Optimierung im Hinblick auf Geschwindigkeit und Kosten für unser Geschäft von entscheidender Bedeutung. Mit AWS Inferentia haben wir die Modelllatenz gesenkt und einen bis zu 9-mal besseren Durchsatz pro Dollar erzielt. Dies hat es uns ermöglicht, die Modellgenauigkeit zu erhöhen und die Fähigkeiten unserer Plattform zu erweitern, indem wir anspruchsvollere DL-Modelle einsetzen und 5-mal mehr Datenvolumen verarbeiten konnten, während wir gleichzeitig unsere Kosten unter Kontrolle hielten.

    Alex Jaimes, Chief Scientist und Senior Vice President of AI bei Dataminr
  • Autodesk

    Autodesk treibt die kognitive Technologie unseres KI-gestützten virtuellen Assistenten, Autodesk Virtual Agent (AVA), mit Hilfe von Inferentia voran. AVA beantwortet mehr als 100 000 Kundenfragen pro Monat durch Anwendung von natürlichem Sprachverständnis (NLU) und Deep Learning (DL)-Techniken, um den Kontext, die Absicht und die Bedeutung hinter den Anfragen zu extrahieren. Durch die Pilotierung von Inferentia sind wir in der Lage, einen 4,9-fach höheren Durchsatz als G4dn für unsere NLU-Modelle zu erzielen, und wir freuen uns darauf, mehr Workloads auf den Inferentia-basierten Inf1-Instances auszuführen.

    Binghui Ouyang, Sr. Data Scientist bei Autodesk
  • Screening Eagle Technologies

    Der Einsatz von Bodenradar und die Erkennung visueller Mängel ist normalerweise die Domain von Vermessungsfachleuten. Eine auf Microservices basierende AWS-Architektur ermöglicht uns die Verarbeitung von Videos, die von automatischen Inspektionsfahrzeugen und Inspektoren aufgenommen wurden. Die Migration unserer hausintern erstellten Modelle von herkömmlichen GPU-basierten Instances zu Inferentia ermöglichte uns eine Kostenreduzierung um 50 %. Zudem konnten wir Leistungssteigerungen beim Vergleich der Zeiten mit einer G4dn-GPU-Instance feststellen. Unser Team freut sich darauf, mehr Workloads auf den Inferentia-basierten Inf1-Instances auszuführen.

    Jesús Hormigo, Chief of Cloud and AI Officer bei Screening Eagle Technologies
  • NTT PC Communications

    NTT PC Communications, ein Anbieter von Netzwerk-Services und Kommunikationslösungen in Japan, ist ein führendes Telekommunikationsunternehmen bei der Einführung neuer innovativer Produkte auf dem Informations- und Kommunikationstechnologie-Markt.

    NTT PC hat AnyMotion entwickelt, einen API-Plattformservice zur Bewegungsanalyse, der auf fortschrittlichen ML-Modellen zur Haltungsschätzung basiert. Wir haben unsere AnyMotion-Plattform auf Amazon-EC2-Inf1-Instances mithilfe von Amazon ECS für einen vollständig verwalteten Container-Orchestrierungsservice bereitgestellt. Durch die Bereitstellung unserer AnyMotion-Container auf Amazon EC2 Inf1 konnten wir im Vergleich zu GPU-basierten EC2-Instances der aktuellen Generation eine 4,5-fach höhere Durchsatzrate, eine um 25 % niedrigere Inferenzlatenz und 90 % niedrigere Kosten erzielen. Diese hervorragenden Ergebnisse werden dazu beitragen, die Qualität der AnyMotion-Services im großen Maßstab zu verbessern.

    Toshiki Yanagisawa, Software Engineer bei NTT PC Communications Inc.
  • Anthem

    Anthem ist eines der führenden Unternehmen der Nation im Bereich der Gesundheitsfürsorge, das die Bedürfnisse von über 40 Millionen Mitgliedern in Dutzenden von Bundesstaaten erfüllt. 

    Der Markt der digitalen Gesundheitsplattformen wächst mit einer bemerkenswerten Geschwindigkeit. Das Sammeln von Informationen über diesen Markt ist aufgrund der riesigen Menge an Kundenmeinungsdaten und seiner unstrukturierten Natur eine schwierige Aufgabe. Unsere Anwendung automatisiert die Generierung von handlungsrelevanten Erkenntnissen aus Kundenmeinungen über natürlichsprachliche DL-Modelle (Transformers). Unsere Anwendung ist rechenintensiv und muss hochleistungsfähig bereitgestellt werden. Wir stellten unseren DL-Inferencing-Workload nahtlos auf Amazon-EC2-Inf1-Instances bereit, die mit dem AWS-Inferentia-Prozessor betrieben werden. Die neuen Inf1-Instances bieten einen 2-fach höheren Durchsatz für GPU-basierte Instances und ermöglichten es uns, unsere Inferenz-Workloads zu rationalisieren.

    Numan Laanait and Miro Mihaylov, PhDs, Principal AI/Data Scientists, Anthem
  • Condé Nast

    Das globale Portfolio von Condé Nast umfasst über 20 führende Medienmarken, darunter Wired, Vogue und Vanity Fair. Innerhalb weniger Wochen war unser Team in der Lage, unseren Empfehlungs-Engine mit AWS-Inferentia-Chips zu integrieren. Diese Kombination ermöglicht mehrere Laufzeitoptimierungen für modernste natürliche Sprachmodelle auf den Inf1-Instances von SageMaker. Infolgedessen konnten wir eine 72%ige Kostenreduzierung im Vergleich zu den zuvor bereitgestellten GPU-Instances feststellen.

    Paul Fryzel, Principal Engineer, AI Infrastructure bei Condé Nast
  • Ciao Inc.

    Ciao entwickelt herkömmliche Überwachungskameras zu Hochleistungs-Analysekameras, die der Leistungsfähigkeit eines menschlichen Auges entsprechen. Unsere Anwendung verbessert den Katastrophenschutz und überwacht die Umgebungsbedingungen mithilfe von cloudbasierten KI-Kameralösungen, um zu warnen, bevor es zu einer Katastrophe wird. Ein solcher Alarm ermöglicht es, vorher auf die Situation zu reagieren. Basierend auf der Objekterkennung können wir auch Einblicke gewähren, indem wir die Anzahl der ankommenden Gäste ohne Mitarbeiter anhand von Videos in stationären Geschäften schätzen. Ciao Camera hat AWS-Inferentia-basierte Inf1-Instances mit 40 % besserer Preisleistung als G4dn mit YOLOv4 kommerziell übernommen. Wir freuen uns auf weitere Services, bei denen Inf1 seine erhebliche Kosteneffizienz nutzt.

    Shinji Matsumoto, Software Engineer bei Ciao Inc.
  • The Asahi Shimbun Company

    The Asahi Shimbun ist eine der beliebtesten Tageszeitungen in Japan. Das Media Lab, das als eine der Abteilungen unseres Unternehmens eingerichtet wurde, hat die Aufgabe, die neuesten Technologien, insbesondere KI, zu erforschen und die Spitzentechnologien für neue Unternehmen zu verbinden. Mit der Einführung der auf AWS Inferentia basierenden Amazon EC2 Inf1 Instances in Tokio testeten wir unsere auf PyTorch basierende Anwendung zur Textzusammenfassungs-KI an diesen Instances. Diese Anwendung verarbeitet eine große Menge an Text und erzeugt Überschriften und zusammenfassende Sätze, die auf Artikeln aus den letzten 30 Jahren trainiert wurden. Mit Inferentia konnten wir die Kosten im Vergleich zu CPU-basierten Instances beträchtlich senken. Diese dramatische Kostenreduzierung wird es uns ermöglichen, unsere komplexesten Modelle im Maßstab bereitzustellen, was wir bisher für wirtschaftlich nicht machbar hielten.“

    Hideaki Tamori, PhD, Senior Administrator, Media Lab bei The Asahi Shimbun Company
  • CS Disco

    CS Disco erfindet als führender Anbieter von KI-Lösungen für E-Discovery, die von Juristen für Juristen entwickelt wurden, die Rechtstechnologie neu. Disco AI beschleunigt die undankbare Aufgabe, Terabytes von Daten zu durchforsten, die Überprüfungszeiten zu verkürzen und die Überprüfungsgenauigkeit zu verbessern, indem komplexe NLP-Modelle genutzt werden, die rechenaufwändig und kostenintensiv sind. Disco hat festgestellt, dass auf AWS Inferentia basierende Inf1-Instances die Kosten der Inferenz in Disco AI um mindestens 35 % im Vergleich zu den heutigen GPU-Instances reduzieren. Basierend auf diesen positiven Erfahrungen mit Inf1-Instances wird CS Disco die Möglichkeiten für eine Migration nach Inferentia untersuchen.

    Alan Lockett, Sr. Director of Research bei CS Disco
  • Talroo

    Bei Talroo stellen wir unseren Kunden eine datengesteuerte Plattform zur Verfügung, die es ihnen ermöglicht, einzigartige Stellenbewerber anzuziehen, so dass sie Einstellungen vornehmen können. Wir erforschen ständig neue Technologien, um sicherzustellen, dass wir unseren Kunden die besten Produkte und Services anbieten. Mit Inferentia extrahieren wir Erkenntnisse aus einem Korpus von Textdaten, um unsere KI-gestützte Such- und Match-Technologie zu verbessern. Talroo nutzt Amazon-EC2-Inf1-Instances, um mit SageMaker NLU-Modelle mit hohem Durchsatz zu erstellen. Die ersten Tests von Talroo zeigen, dass die Amazon-EC2-Inf1 Instances von Amazon EC2 im Vergleich zu G4dn GPU-basierten Instances eine 40 % geringere Inferenzlatenz und einen 2-fach höheren Durchsatz liefern. Basierend auf diesen Ergebnissen freut sich Talroo darauf, Amazon-EC2-Inf1-Instances als Teil seiner AWS-Infrastruktur zu nutzen.

    Janet Hu, Software Engineer bei Talroo
  • Digital Media Professionals

    Digital Media Professionals (DMP) visualisiert die Zukunft mit einer auf KI basierenden ZIA™-Plattform. Die effizienten Computer-Vision-Klassifikationstechnologien von DMP werden eingesetzt, um auf der Grundlage großer Mengen von Echtzeit-Bilddaten Erkenntnisse zu gewinnen, z. B. bei der Zustandsbeobachtung, der Kriminalitäts- und Unfallprävention. Wir haben festgestellt, dass unsere Bildsegmentierungsmodelle auf AWS-Inferentia-basierten Inf1-Instances viermal schneller ausgeführt werden als auf GPU-basierten G4-Instances. Aufgrund dieses höheren Durchsatzes und der geringeren Kosten können wir mit Inferentia unsere KI-Workloads wie Anwendungen für Auto-Dashcams in großem Maßstab bereitstellen.

    Hiroyuki Umeda, Director & General Manager, Sales & Marketing Group bei Digital Media Professionals
  • Hotpot.ai

    Hotpot.ai versetzt Nicht-Designer in die Lage, attraktive Grafiken zu erstellen, und hilft professionellen Designern bei der Automatisierung von Routineaufgaben. 

    Da ML der Kern unserer Strategie ist, waren wir begeistert, AWS-Inferentia-basierte Inf1-Instances auszuprobieren. Wir fanden die Inf1-Instances leicht in unsere Forschungs- und Entwicklungspipeline zu integrieren. Am wichtigsten ist, dass wir im Vergleich zu den G4dn GPU-basierten Instances beeindruckende Leistungssteigerungen beobachten konnten. Mit unserem ersten Modell erbrachten die Inf1-Instances einen etwa 45 % höheren Durchsatz und verringerten die Kosten pro Inferenz um fast 50 %. Wir beabsichtigen, eng mit dem AWS Team zusammenzuarbeiten, um andere Modelle zu portieren und den größten Teil unserer ML-Inferenz-Infrastruktur auf AWS Inferentia umzustellen.

    Clarence Hu, Gründer bei Hotpot.ai
  • SkyWatch

    SkyWatch verarbeitet Hunderte von Billionen von Pixeln an Erdbeobachtungsdaten, die täglich aus dem Weltraum aufgenommen werden. Die Einführung der neuen AWS-Inferentia-basierten Inf1-Instances auf Basis von Amazon SageMaker zur Wolkenerkennung in Echtzeit und Bewertung der Bildqualität ging schnell und einfach vonstatten. Es war alles eine Frage der Umstellung des Instance-Typs in unserer Bereitstellungskonfiguration. Durch die Umstellung der Instance-Typen auf Inferentia-basiertes Inf1 haben wir die Leistung um 40 % verbessert und die Gesamtkosten um 23 % gesenkt. Das ist ein großer Gewinn. Es hat uns in die Lage versetzt, unsere Gesamtbetriebskosten zu senken und gleichzeitig unsere Kunden mit minimalem technischen Aufwand weiterhin mit qualitativ hochwertigen Satellitenbildern zu versorgen. Wir freuen uns darauf, alle unsere Inferenzendpunkte und Batch-ML-Prozesse auf die Verwendung von Inf1-Instances umzustellen, um unsere Datenzuverlässigkeit und Kundenerfahrung weiter zu verbessern.

    Adler Santos, Engineering Manager bei SkyWatch
  • Money Forward Inc.

    Money Forward, Inc. bietet Unternehmen und Privatpersonen eine offene und faire Finanzplattform. Als Teil dieser Plattform bietet HiTTO Inc., ein Unternehmen der Money-Forward-Gruppe, einen KI-Chatbot-Service an, der maßgeschneiderte NLP-Modelle verwendet, um auf die unterschiedlichen Bedürfnisse ihrer Firmenkunden einzugehen.

    Die Migration unseres KI-Chatbot-Services auf Inf1-Instances von Amazon EC2 war unkompliziert. Wir haben die Migration innerhalb von zwei Monaten abgeschlossen und mithilfe von Amazon ECS einen umfangreichen Service für die Inf1-Instances eingeführt. Wir konnten unsere Inferenzlatenz um 97 % und unsere Inferenzkosten um über 50 % reduzieren (gegenüber vergleichbaren GPU-basierten Instances), indem wir mehrere Modelle pro Inf1-Instance bedienen. Wir freuen uns darauf, mehr Workloads auf den Inferentia-basierten Inf1-Instances auszuführen.

    Kento Adachi, Technical Lead, Büro des CTO bei Money Forward Inc.
  • Amazon Advertising

    Amazon Advertising hilft Unternehmen jeder Größe, mit Kunden in jeder Phase ihres Einkaufs in Kontakt zu treten. Millionen von Anzeigen, darunter auch Text- und Bildanzeigen, werden täglich moderiert, klassifiziert und für ein optimales Kundenerlebnis bereitgestellt.

    Den News-Blog lesen

    Für unsere Textanzeigenverarbeitung stellen wir PyTorch-basierte BERT-Modelle weltweit auf AWS-Inferentia-basierten Inf1-Instances bereit. Durch den Wechsel von GPUs zu Inferentia konnten wir unsere Kosten bei vergleichbarer Leistung um 69 % senken. Das Zusammenstellen und Testen unserer Modelle für AWS Inferentia dauerte weniger als drei Wochen. Die Verwendung von Amazon SageMaker zur Bereitstellung unserer Modelle auf Inf1-Instances stellte sicher, dass unsere Bereitstellung skalierbar und einfach zu verwalten war. Als ich die kompilierten Modelle zum ersten Mal analysierte, war die Leistung mit AWS Inferentia so beeindruckend, dass ich die Benchmarks sogar noch einmal durchführen musste, um sicher zu sein, dass sie korrekt waren! In Zukunft möchten wir unsere Modelle zur Verarbeitung von Bildanzeigen auf Inferentia migrieren. Wir haben für diese Modelle bereits eine um 30 % niedrigere Latenz und 71 % Kosteneinsparungen gegenüber vergleichbaren GPU-basierten Instances ermittelt.

    Yashal Kanungo, Applied Scientist bei Amazon Advertising
  • Amazon Alexa

    Die KI- und ML-basierte Intelligenz von Amazon Alexa, unterstützt von AWS, ist heute auf mehr als 100 Millionen Geräten verfügbar – und unser Versprechen an die Kunden ist, dass Alexa immer intelligenter, gesprächiger, proaktiver und noch erfreulicher wird. Um dieses Versprechen zu halten, müssen die Antwortzeiten und die ML-Infrastrukturkosten kontinuierlich verbessert werden. Deshalb freuen wir uns, Amazon EC2 Inf1 zu nutzen, um die Inferenz-Latenzzeit und die Kosten pro Inferenz bei Alexa Text-to-Speech zu senken. Mit Amazon EC2 Inf1 werden wir in der Lage sein, den Service für die zig Millionen Kunden, die Alexa jeden Monat nutzen, noch besser zu machen.

    Tom Taylor, Senior Vice President bei Amazon Alexa
  • Amazon Prime Video

    Amazon Prime Video verwendet ML-Modelle zur Analyse der Videoqualität von Live-Events, um ein optimales Zuschauererlebnis für Mitglieder von Prime Video zu gewährleisten. Wir haben unsere ML-Modelle zur Bildklassifizierung auf Inf1-Instances von EC2 eingesetzt und konnten eine vierfache Leistungssteigerung und Kosteneinsparungen von bis zu 40 % feststellen. Wir wollen diese Kosteneinsparungen jetzt nutzen, um Innovationen zu entwickeln und fortschrittliche Modelle zu erstellen, die komplexere Fehler wie Synchronisationslücken zwischen Audio- und Videodateien erkennen können, um den Mitgliedern von Prime Video ein noch besseres Erlebnis beim Ansehen zu bieten.

    Victor Antonino, Solutions Architect bei Amazon Prime Video
  • Amazon Rekognition and Video

    Amazon Rekognition ist eine einfache und leichte Anwendung zur Bild- und Videoanalyse, die den Kunden hilft, Objekte, Personen, Texte und Aktivitäten zu identifizieren. Amazon Rekognition benötigt eine leistungsstarke DL-Infrastruktur , die täglich Milliarden von Bildern und Videos für unsere Kunden analysieren kann. Bei AWS-Inferentia-basierten Inf1-Instances führte die Ausführung von Amazon-Rekognition-Modellen wie z. B. der Objektklassifikation zu einer 8-mal geringeren Latenz und einem 2-mal geringeren Durchsatz im Vergleich zur Ausführung dieser Modelle auf GPUs. Auf der Grundlage dieser Ergebnisse stellen wir Amazon Rekognition auf Inf1 um, sodass unsere Kunden schneller genaue Ergebnisse erhalten.

    Rajneesh Singh, Director, SW Engineering bei Amazon Rekognition and Video

Produktdetails

* Die angegebenen Preise gelten in der AWS-Region USA Ost (Nord-Virginia). Preise für Reserved Instances für 1 Jahr und 3 Jahre gelten für Bezahloptionen mit teilweiser Vorauszahlung oder, im Fall von instances ohne die Option der teilweisen Vorauszahlung, ohne Vorauszahlung.

Amazon EC2-Inf1-Instances sind als On-Demand, Reserved oder Spot-Instances in den AWS Regionen USA Ost (Nord-Virginia) und USA West (Oregon) verfügbar.

Erste Schritte