Confluent, Inc. kündigte die Markteinführung von Confluent im ersten Quartal 22 an, die neue Ergänzungen zum branchenweit größten Portfolio vollständig verwalteter Daten-Streaming-Konnektoren, neue Steuerelemente für die kosteneffiziente Skalierung von Apache-Kafka-Clustern mit massivem Durchsatz und eine neue Funktion zur Aufrechterhaltung einer zuverlässigen Datenqualität in globalen Umgebungen umfasst. Diese Innovationen ermöglichen einfaches, skalierbares und zuverlässiges Daten-Streaming im gesamten Unternehmen, so dass jedes Unternehmen die Echtzeit-Operationen und Kundenerfahrungen liefern kann, die für den Erfolg in einer digitalen Welt erforderlich sind. Für viele Unternehmen bleiben Echtzeitdaten jedoch unerreichbar. Die Daten befinden sich in Silos, die in verschiedenen Systemen und Anwendungen gefangen sind, da die Integration Monate in Anspruch nimmt und erhebliche Ressourcen für die Verwaltung benötigt. Darüber hinaus ist die Anpassung der Streaming-Kapazität an die sich ständig ändernden Geschäftsanforderungen ein komplexer Prozess, der zu übermäßigen Infrastrukturausgaben führen kann. Schließlich ist die Sicherstellung von Datenqualität und Compliance auf globaler Ebene ein kompliziertes technisches Unterfangen, das in der Regel eine enge Koordination zwischen Teams von Kafka-Experten erfordert. Die neuesten Konnektoren von Confluent umfassen Azure Synapse Analytics, Amazon DynamoDB, Databricks Delta Lake, Google BigTable und Redis, um die Abdeckung beliebter Datenquellen und -ziele zu erhöhen. Das nur auf Confluent Cloud verfügbare Confluents-Portfolio mit über 50 vollständig verwalteten Konnektoren hilft Unternehmen, leistungsstarke Streaming-Anwendungen zu erstellen und die Datenportabilität zu verbessern. Diese Konnektoren, die mit der umfassenden Kafka-Expertise von Confluent entwickelt wurden, bieten Unternehmen einen einfachen Weg zur Modernisierung von Data Warehouses, Datenbanken und Data Lakes mit Echtzeit-Datenpipelines: Data Warehouse-Konnektoren: Snowflake, Google BigQuery, Azure Synapse Analytics, Amazon Redshift Datenbank-Konnektoren: MongoDB Atlas, PostgreSQL, MySQL, Microsoft SQL Server, Azure Cosmos DB, Amazon DynamoDB, Oracle Database, Redis, Google BigTable Data Lake-Konnektoren: Amazon S3, Google Cloud Storage, Azure Blob Storage, Azure Data Lake Storage Gen 2, Databricks Delta Lake Um den Echtzeit-Einblick in den Zustand von Anwendungen und Systemen zu vereinfachen, kündigte Confluent erstklassige Integrationen mit Datadog und Prometheus an. Mit nur wenigen Klicks erhalten Betreiber einen tieferen, durchgängigen Einblick in die Confluent Cloud innerhalb der von ihnen bereits verwendeten Überwachungstools. So lassen sich auftretende Probleme leichter erkennen, beheben und vermeiden, während sie wertvolle Zeit für andere Aufgaben gewinnen. Um sicherzustellen, dass die Dienste immer verfügbar sind, sind viele Unternehmen gezwungen, ihre Kafka-Cluster mit zu viel Kapazität auszustatten und zahlen einen hohen Preis für überschüssige Infrastruktur, die oft ungenutzt bleibt. Confluent löst dieses häufige Problem mit dedizierten Clustern, die bei Bedarf mit wenigen Klicks bereitgestellt werden können und Selbstbedienungssteuerungen für das Hinzufügen und Entfernen von Kapazitäten in der Größenordnung von GBps+ Durchsatz umfassen. Die Kapazität kann jederzeit einfach über die Confluent Cloud UI, CLI oder API angepasst werden. Durch den automatischen Datenausgleich optimieren diese Cluster ständig die Datenplatzierung, um die Last ohne zusätzlichen Aufwand auszugleichen. Darüber hinaus schützen Mindestkapazitätsgarantien die Cluster davor, auf einen Punkt zu schrumpfen, der unter dem liegt, was zur Unterstützung des aktiven Datenverkehrs erforderlich ist. In Verbindung mit der neuen Load Metric API von Confluent können Unternehmen fundierte Entscheidungen darüber treffen, wann sie ihre Kapazitäten erweitern und wann sie sie verringern sollten. Mit dieser neuen Stufe der elastischen Skalierbarkeit können Unternehmen ihre Workloads mit dem höchsten Durchsatz mit hoher Verfügbarkeit, betrieblicher Einfachheit und Kosteneffizienz ausführen. Globale Datenqualitätskontrollen sind entscheidend für die Aufrechterhaltung einer hochkompatiblen Kafka-Implementierung, die für eine langfristige, standardisierte Nutzung im gesamten Unternehmen geeignet ist. Mit Schema Linking haben Unternehmen jetzt eine einfache Möglichkeit, vertrauenswürdige Datenströme über Cloud- und Hybrid-Umgebungen hinweg mit gemeinsamen Schemata zu pflegen, die in Echtzeit synchronisiert werden. In Verbindung mit Cluster Linking werden Schemata überall dort gemeinsam genutzt, wo sie benötigt werden, und bieten ein einfaches Mittel zur Aufrechterhaltung einer hohen Datenintegrität bei der Bereitstellung von Anwendungsfällen wie der gemeinsamen Nutzung globaler Daten, Cluster-Migrationen und Vorbereitungen für ein Failover in Echtzeit im Falle einer Notfallwiederherstellung.