GBT Technologies Inc. evaluiert den Einsatz eines fortschrittlichen NLP-Algorithmusmodells, um die Interaktion zwischen den Menschen in seinem KI-basierten Gesundheitsberatungssystem zu verbessern. Das Modell Text-To-Text Transfer Transformer (T5) stellt eine effiziente Technologie zur Durchführung einer Vielzahl von überwachten Aufgaben der natürlichen Sprachverarbeitung (NLP) wie Klassifizierung, Fragen und Antworten und Zusammenfassung dar. Normalerweise sind die meisten neuen NLP-Modelle für tiefes Lernen sehr groß und enthalten eine große Anzahl von Parametern. Je größer das NLP-Modell ist, desto mehr Lernkapazität hat es normalerweise, doch einer der Hauptnachteile ist der große Datensatz, der die Gesamtleistung verringern kann. Das Modell des fortgeschrittenen NLP-Algorithmus gilt als einer der fortschrittlichsten und leistungsfähigsten NLP-Algorithmen, der eine große Anzahl von Parametern umfasst, deutlich weniger Speicherplatz benötigt und eine hohe Genauigkeit bietet. GBT wird das vortrainierte T5-Modell mit dem Ziel evaluieren, es in seinem Hippocrates-Beratungssystem für das Gesundheitswesen einzusetzen, das Q/A, Text, Zusammenfassungen und kompositionelles Commonsense-Wissen verarbeitet. Das Modell ermöglicht eine parallelere Verarbeitung als Methoden wie rekurrente neuronale Netze (RNN) und faltungsorientierte neuronale Netze (CNN), was das Datenverständnis und die Schlussfolgerungsmöglichkeiten erheblich verbessert. So ist das T5-Modell beispielsweise in der Lage, Wörter zusammen zu verarbeiten, anstatt sie Wort für Wort in einem bestimmten Text zu erfassen. Da die globale Datenmenge in naher Zukunft schätzungsweise die Zettabyte-Grenze erreichen wird, benötigt Deep Learning Computing leistungsstarke Verarbeitungsfähigkeiten, um Daten zu verstehen und zu untersuchen, insbesondere im riesigen, unstrukturierten NLP-Bereich. Das System ist so konzipiert, dass es als allgemeines Q/A-Beratungssystem für die Gesundheit fungiert und erste gesundheitsbezogene Ratschläge gibt.