Η Google Cloud παρουσίασε ενημερώσεις στην υποδομή της που στοχεύουν στην επιτάχυνση εφαρμογών τεχνητής νοημοσύνης, με έμφαση στην έβδομη γενιά των TPU και σε νέες VMs για επεξεργασίες γενικής χρήσης. Η πλατφόρμα υπόσχεται υψηλή απόδοση για εκπαίδευση και inference μεγάλων μοντέλων, ενώ παράλληλα υπάρχουν φωτογραφίες με credit Nicolas Economou (Getty Images) που απεικονίζουν συσκευές σε δοκιμές, και η εταιρεία ανοίγει εγγραφές για preview.
Στο παρακάτω κείμενο εξηγούνται οι τεχνικές λεπτομέρειες και οι διαθέσιμες επιλογές.
Ironwood TPU ως νέα υποδομή
Ο νέος επεξεργαστής αναφέρεται ότι προσφέρει έως και 4 φορές μεγαλύτερο ρυθμό σε σχέση με την προηγούμενη γενιά, βελτιώνοντας εργασίες όπως εκπαίδευση μεγάλων μοντέλων και υψηλής ταχύτητας inference. Η σχετική αρχιτεκτονική επιτρέπει συνύπαρξη πολλών κόμβων με στόχο την κλίμακα και την αξιοπιστία, ενώ σε δοκιμές ανακοινώθηκε διαθεσιμότητα για ευρύτερη χρήση σε λίγες εβδομάδες.
Η εταιρεία επίσης υπογραμμίζει την εφαρμογή τεχνικών για μειωμένη κατανάλωση ενέργειας κατά τη λειτουργία.
Ένα από τα βασικά στοιχεία της σχεδίασης είναι η δυνατότητα σύνδεσης μεγάλου αριθμού chip σε ένα ενιαίο pod, με το σύστημα Inter-Chip Interconnect να επιτρέπει ενσωμάτωση έως 9.216 chips και ταχύτητες περίπου 9,6 Terabits ανά δευτερόλεπτο για την ανταλλαγή δεδομένων.
Αυτή η συνδεσιμότητα μειώνει τα παραδοσιακά σημεία συμφόρησης και διευκολύνει κατανεμημένα φορτία εργασίας σε τεράστια κλίμακα.
Η κοινή μνήμη υψηλής ταχύτητας (HBM) φτάνει σε συνολική χωρητικότητα που αναφέρεται περίπου στα 1,77 Petabytes, επιτρέποντας διαχείριση μεγάλων μοντέλων και δεδομένων στη μνήμη. Επιπλέον, η τεχνολογία Optical Circuit Switching λειτουργεί ως δυναμικό δίκτυο που αναδιατάσσει ροές εργασίας σε περίπτωση προβλήματος, προσφέροντας μεγαλύτερη διαθεσιμότητα και ανθεκτικότητα για κρίσιμες εφαρμογές.
Axion VMs για γενικές ανάγκες
Η σειρά Axion εξελίσσεται με στοχευμένες επιλογές βασισμένες σε Arm CPUs, με την έκδοση N4A σε preview να παρέχει έως 64 vCPUs, 512GB μνήμη DDR5 και δικτύωση 50 Gbps για φορτία γενικής χρήσης. Χαρακτηριστικά αποθήκευσης και τύποι μηχανών προσαρμόζονται ανάλογα με απαιτήσεις επιδόσεων και κόστους, ενώ η πλατφόρμα προωθεί λύσεις για ευέλικτη ανάπτυξη native Arm εφαρμογών.
Στις προοπτικές της σειράς περιλαμβάνεται η πρώτη bare-metal προσφορά C4A metal με έως 96 vCPUs, 768GB μνήμη DDR5 και δυνατότητα δικτύου μέχρι 100 Gbps, σχεδιασμένη για εργασίες που απαιτούν φυσική απομόνωση και υψηλή I/O απόδοση. Χρήστες που δοκίμασαν τις Axion αναφέρουν σημαντικές βελτιώσεις στο κόστος ανά απόδοση.
Υποστηρίζεται επίσης η τυπική γραμμή C4A με έως 72 vCPUs, 576GB μνήμη και τοπικά SSD Titanium έως 6TB, κατάλληλη για επεξεργασία μεγάλων όγκων δεδομένων και εφαρμογές με ανάγκες γρήγορου αποθηκευτικού. Σε περιπτώσεις δοκιμών, εταιρείες όπως Vimeo και ZoomInfo ανέφεραν έως 60% εξοικονόμηση στην αναλογία κόστους προς απόδοση για συγκεκριμένες ρυθμίσεις.
Συνέργειες, συμβατότητα και επιπτώσεις
Η υποδομή συνδυάζει εξειδικευμένους επεξεργαστές TPU με γενικές CPUs, παρέχοντας επιλογές για ανάθεση της κατάλληλης πλατφόρμας σε κάθε φόρτο εργασίας. Το οικοσύστημα περιλαμβάνει ενσωματώσεις με εργαλεία διαχείρισης κοντέινερ, καθώς και υποστήριξη για frameworks που εναλλάσσουν GPU και TPU, ενισχύοντας την ευελιξία ανάπτυξης και τη δυνατότητα ταχύτερης πειραματικής λειτουργίας.
Όπως αναφέρεται, το σύστημα που αποκαλείται AI Hypercomputer εμφανίζει υψηλές αποδόσεις για πελάτες, με αναφορές σε επιστροφές άνω του 350% σε τρία χρόνια, μείωση κόστους IT κατά περίπου 28% και αύξηση της αποδοτικότητας των ομάδων IT κατά 55%. Η εξέλιξη αυτή υπογραμμίζει τον στόχο για συνδυασμό απόδοσης και οικονομίας στις cloud υπηρεσίες.
Οι ενδιαφερόμενοι μπορούν να ζητήσουν πρόσβαση σε preview για Ironwood και Axion N4A, ενώ η διαθεσιμότητα C4A metal αναμένεται στο κοντινό μέλλον, προσφέροντας επιλογές από δοκιμές μέχρι παραγωγικές υλοποιήσεις. Η στρατηγική επιλογής πλατφόρμας έχει στόχο την αντιμετώπιση απαιτήσεων κλιμάκωσης χωρίς υπερβολικό κόστος λειτουργίας.
Η εικόνα της αγοράς δείχνει μετακίνηση προς υποδομές που συνδυάζουν εξειδίκευση και γενικότητα, με στόχο βελτίωση κόστους λειτουργίας και ευκολότερη διαχείριση μοντέλων AI σε παραγωγή. Τα επόμενα βήματα θα κριθούν από τις εμπειρίες χρήσης και τις ενσωματώσεις σε υπάρχουσες πλατφόρμες ανάπτυξης.