Η εξαγορά της Splunk και η συνεργασία της Cisco με τη Nvidia αποτελούν μέρος των προσπαθειών της για τη δημιουργία υποδομών δικτύου κέντρων δεδομένων για την υποστήριξη φορτίων εργασίας AI/ML.

Πριν από λίγο καιρό, οι ιδέες σχετικά με την αναμόρφωση των λειτουργιών δικτύωσης των κέντρων δεδομένων για τον χειρισμό των φορτίων εργασίας AI θα περιορίζονταν σε έναν πίνακα. Αλλά οι συνθήκες έχουν αλλάξει δραστικά τον τελευταίο χρόνο.

"Το AI και το ML ήταν στο ραντάρ, αλλά τους τελευταίους 18 μήνες περίπου έχουν σημειωθεί σημαντικές επενδύσεις και ανάπτυξη - ειδικά γύρω από το generative AI. Αυτό που αναμένουμε το 2024 είναι ότι περισσότεροι οργανισμοί επιχειρηματικών κέντρων δεδομένων θα χρησιμοποιούν νέα εργαλεία και τεχνολογίες για να προωθήσουν μια υποδομή AI που θα τους επιτρέπει να λαμβάνουν περισσότερα δεδομένα, ταχύτερα και με καλύτερες πληροφορίες από τις πηγές δεδομένων", δήλωσε ο Kevin Wollenweber, ανώτερος αντιπρόεδρος και γενικός διευθυντής του οργανισμού δικτύωσης, κέντρων δεδομένων και συνδεσιμότητας παρόχων της Cisco. Οι επιχειρήσεις θα είναι επίσης σε θέση να "διαχειρίζονται καλύτερα τα φορτία εργασίας που συνεπάγεται αυτό", είπε.

Ένας καταιγισμός πρόσφατων δραστηριοτήτων της Cisco μπορεί να πιστοποιήσει την ανάπτυξη της τεχνητής νοημοσύνης σε επίπεδο επιχειρήσεων.

Η εξαγορά της Splunk από τη Cisco, ύψους 28 δισεκατομμυρίων δολαρίων, η οποία έκλεισε αυτή την εβδομάδα, αναμένεται να οδηγήσει σε εξελίξεις της Τεχνητής Νοημοσύνης σε όλα τα χαρτοφυλάκια ασφάλειας και παρατηρησιμότητας της Cisco, για παράδειγμα. Και η πρόσφατη συμφωνία της Cisco με την Nvidia θα αποφέρει ολοκληρωμένο λογισμικό και υλικό δικτύωσης που υπόσχεται να βοηθήσει τους πελάτες να δημιουργήσουν ευκολότερα υποδομές για την υποστήριξη εφαρμογών AI.

Στο πλαίσιο της συνεργασίας, οι νεότερες GPU Tensor Core της Nvidia θα είναι διαθέσιμες στους διακομιστές rack και blade M7 Unified Computing System (UCS) της Cisco, συμπεριλαμβανομένων των UCS X-Series και UCS X-Series Direct, για την υποστήριξη φορτίων εργασίας AI και έντασης δεδομένων στο κέντρο δεδομένων και στην άκρη, δήλωσαν οι εταιρείες. Το ολοκληρωμένο πακέτο θα περιλαμβάνει το λογισμικό Nvidia AI Enterprise, το οποίο διαθέτει προ-εκπαιδευμένα μοντέλα και εργαλεία ανάπτυξης για AI έτοιμο για παραγωγή.

"Η συμμαχία με την Nvidia είναι στην πραγματικότητα μια μηχανική σύμπραξη και δημιουργούμε λύσεις μαζί με την Nvidia για να διευκολύνουμε τους πελάτες μας - επιχειρήσεις και παρόχους υπηρεσιών - να καταναλώνουν τεχνολογία AI", δήλωσε ο Wollenweber. Οι τεχνολογίες που θα παραδώσουν θα επιτρέψουν την παραγωγικότητα της AI και θα περιλαμβάνουν σύνολα εργαλείων για τη δημιουργία, την παρακολούθηση και την αντιμετώπιση προβλημάτων των υφασμάτων, ώστε να λειτουργούν όσο το δυνατόν πιο αποτελεσματικά, δήλωσε ο Wollenweber. "Η προώθηση αυτής της τεχνολογίας στην επιχείρηση είναι το σημείο όπου αυτή η συνεργασία θα αναπτυχθεί στο μέλλον".

Η μεγαλύτερη χωρητικότητα του δικτύου θα είναι μια απαίτηση για την ανάπτυξη της AI, σημειώνουν οι παρατηρητές του κλάδου.

Σύμφωνα με την εταιρεία ερευνών IDC, τα έσοδα στο τμήμα των κέντρων δεδομένων της αγοράς μεταγωγής Ethernet αυξήθηκαν κατά 13,6% το 2023, καθώς οι επιχειρήσεις και οι πάροχοι υπηρεσιών απαιτούν όλο και ταχύτερους μεταγωγείς Ethernet για να υποστηρίξουν ταχέως ωριμάζοντα φορτία εργασίας AI. "Για να καταδείξουμε αυτό το σημείο, τα έσοδα για μεταγωγείς 200/400 GbE αυξήθηκαν κατά 68,9% για ολόκληρο το έτος 2023", δήλωσε ο αναλυτής της IDC Brandon Butler σε άρθρο του Network World.

"Η αγορά μεταγωγής Ethernet το 2023 κυριαρχείται από τον αντίκτυπο του AI, με τη συνολική αγορά να αυξάνεται κατά 20,1% το 2023 και να φτάνει τα 44,2 δισεκατομμύρια δολάρια", δήλωσε ο Butler.

Ο Όμιλος Dell'Oro έγραψε επίσης πρόσφατα για το πώς τα δίκτυα AI θα επιταχύνουν τη μετάβαση σε υψηλότερες ταχύτητες. "Για παράδειγμα, τα 800 Gbps αναμένεται να περιλαμβάνουν την πλειοψηφία των θυρών στα δίκτυα AI back-end μέχρι το 2025, μέσα σε μόλις δύο χρόνια από την εισαγωγή του τελευταίου προϊόντος 800 Gbps", έγραψε ο Sameh Boujelbene, αντιπρόεδρος της Dell'Oro Group.

"Ενώ το μεγαλύτερο μέρος της ζήτησης της αγοράς θα προέρχεται από τους παρόχους υπηρεσιών Cloud της βαθμίδας 1, η βαθμίδα 2/3 και οι μεγάλες επιχειρήσεις προβλέπεται να είναι σημαντικές, προσεγγίζοντας τα 10 δισεκατομμύρια δολάρια την επόμενη πενταετία. Η τελευταία ομάδα θα προτιμήσει το Ethernet", δήλωσε ο Boujelbene.

Το Ethernet ως τεχνολογία λαμβάνει τόνους επενδύσεων και εξελίσσεται γρήγορα, δήλωσε ο Wollenweber. "Πήγαμε από τα 100G στα 400G στα 800G και τώρα κατασκευάζουμε πλέον 1,6 terabit Ethernet και είναι επίσης η κυρίαρχη τεχνολογία δικτύωσης για το υπόλοιπο κέντρο δεδομένων", δήλωσε ο Wollenweber.

Η 650 Group ανέφερε αυτή την εβδομάδα ότι οι ταχύτητες δικτύωσης θα συνεχίσουν να αυξάνονται με ταχείς ρυθμούς για να συμβαδίσουν με τους φόρτους εργασίας AI και μηχανικής μάθησης (ML). Οι πρώτες επιδείξεις του 1,6 terabit Ethernet (1,6 TbE) στις αρχές του 2024 δείχνουν ότι το Ethernet συμβαδίζει με τις απαιτήσεις δικτύωσης AI/ML και η 650 Group προβλέπει ότι οι λύσεις 1,6 TbE θα είναι η κυρίαρχη ταχύτητα θύρας μέχρι το 2030.

Το Ethernet αποτελεί σήμερα τη βάση για τα περισσότερα δίκτυα κέντρων δεδομένων επιχειρήσεων. Έτσι, όταν οι επιχειρήσεις θέλουν να προσθέσουν συστήματα βασισμένα σε GPU για φόρτους εργασίας AI, είναι λογικό να παραμείνουν στο Ethernet. το προσωπικό IT και μηχανικών καταλαβαίνει το Ethernet και μπορεί να έχει σταθερή απόδοση από τις τεχνολογίες Ethernet και να ενσωματώσει αυτούς τους υπολογιστικούς κόμβους AI, δήλωσε ο Wollenweber.

"Ένας φόρτος εργασίας AI/ML ή μια εργασία - όπως για διάφορους τύπους εκμάθησης που χρησιμοποιούν μεγάλα σύνολα δεδομένων - μπορεί να χρειαστεί να κατανεμηθεί σε πολλές GPU ως μέρος ενός cluster AI/ML για να εξισορροπηθεί το φορτίο μέσω παράλληλης επεξεργασίας", έγραψε ο Wollenweber σε ένα blog σχετικά με τη δικτύωση AI.

"Για να παραδίδονται γρήγορα αποτελέσματα υψηλής ποιότητας - ιδίως για μοντέλα εκπαίδευσης - όλα τα clusters AI/ML πρέπει να συνδέονται με ένα δίκτυο υψηλών επιδόσεων που υποστηρίζει μη μπλοκαρισμένο, χαμηλής καθυστέρησης και χωρίς απώλειες ιστό", έγραψε ο Wollenweber. "Αν και λιγότερο εντατική σε υπολογισμούς, η εκτέλεση συμπερασμάτων AI σε κέντρα δεδομένων άκρων θα περιλαμβάνει επίσης απαιτήσεις σχετικά με την απόδοση του δικτύου, την κλίμακα και τον έλεγχο της καθυστέρησης, ώστε να βοηθήσει στην ταχεία παροχή πληροφοριών σε πραγματικό χρόνο σε μεγάλο αριθμό τελικών χρηστών".

Ο Wollenweber ανέφερε το πρωτόκολλο δικτύου RDMA (Remote Direct Memory Access) over Converged Ethernet (RoCE) ως μέσο για τη βελτίωση της απόδοσης και τη μείωση της καθυστέρησης στην κυκλοφορία υπολογιστών και αποθήκευσης.Το RoCEv2 χρησιμοποιείται για να επιτρέπει την πρόσβαση στη μνήμη σε έναν απομακρυσμένο υπολογιστή χωρίς τη συμμετοχή της CPU.

"Τα υφάσματα Ethernet με υποστήριξη πρωτοκόλλου RoCEv2 είναι βελτιστοποιημένα για clusters AI/ML με ευρέως υιοθετημένη τεχνολογία βασισμένη σε πρότυπα, ευκολότερη μετάβαση για κέντρα δεδομένων που βασίζονται στο Ethernet, αποδεδειγμένη επεκτασιμότητα με χαμηλότερο κόστος ανά bit και σχεδιασμένα με προηγμένη διαχείριση συμφόρησης που βοηθά στον έξυπνο έλεγχο της καθυστέρησης και των απωλειών", έγραψε ο Wollenweber.

Αυτό που θα χρειαστούν οι πελάτες είναι καλύτερα επιχειρησιακά εργαλεία που θα βοηθήσουν στον αποτελεσματικότερο προγραμματισμό των φορτίων εργασίας AI/ML σε όλες τις GPU. Στην περίπτωση της Cisco, τα εργαλεία αυτά περιλαμβάνουν το Nexus Dashboard.

"Πώς θα κάνουμε στην πραγματικότητα απλούστερο και ευκολότερο για τους πελάτες να συντονίσουν αυτά τα δίκτυα Ethernet και να συνδέσουν αυτόν τον τεράστιο όγκο υπολογιστών όσο το δυνατόν πιο αποτελεσματικά; Αυτό εξετάζουμε", δήλωσε ο Wollenweber.

Το πρόσφατο κύμα ειδήσεων της Cisco βασίζεται σε προηγούμενες εργασίες για τη διαμόρφωση των κατευθύνσεων του κέντρου δεδομένων AI. Το περασμένο καλοκαίρι, για παράδειγμα, η Cisco δημοσίευσε ένα σχέδιο που ορίζει πώς οι οργανισμοί μπορούν να χρησιμοποιήσουν τα υπάρχοντα δίκτυα Ethernet του κέντρου δεδομένων για να υποστηρίξουν τα φορτία εργασίας AI.

Ένα βασικό συστατικό αυτού του σχεδίου είναι οι μεταγωγείς κέντρου δεδομένων Nexus 9000, οι οποίοι "διαθέτουν σήμερα τις δυνατότητες υλικού και λογισμικού που είναι διαθέσιμες για να παρέχουν τη σωστή καθυστέρηση, τους μηχανισμούς διαχείρισης συμφόρησης και την τηλεμετρία για να ικανοποιήσουν τις απαιτήσεις των εφαρμογών AI/ML", έγραψε η Cisco στο σχέδιο Data Center Networking Blueprint for AI/ML Applications. "Σε συνδυασμό με εργαλεία όπως το Cisco Nexus Dashboard Insights για ορατότητα και το Nexus Dashboard Fabric Controller για αυτοματοποίηση, οι μεταγωγείς Cisco Nexus 9000 γίνονται ιδανικές πλατφόρμες για τη δημιουργία ενός δικτυακού ιστού AI/ML υψηλής απόδοσης".

Ένα άλλο στοιχείο της δικτυακής υποδομής AI της Cisco είναι οι προγραμματιζόμενοι επεξεργαστές Silicon One υψηλών προδιαγραφών, οι οποίοι απευθύνονται σε υποδομές AI/ML μεγάλης κλίμακας για επιχειρήσεις και υπερκλιμάκωση.

πηγή via DeepL