menu
close

AI Inferencing சந்தையில் ஆதிக்கம் செலுத்த NVIDIA புதிய Blackwell Ultra சிப்களை அறிமுகப்படுத்தியது

NVIDIA, AI Inferencing சந்தையில் Amazon, AMD, Broadcom போன்ற போட்டியாளர்கள் முன்னேறி வரும் நிலையில், 2025-இன் இரண்டாம் பாதியில் தனது அடுத்த தலைமுறை Blackwell Ultra AI சிப்களை வெளியிட திட்டமிட்டுள்ளது. தற்போதைய Blackwell GPU-களை விட 1.5 மடங்கு அதிக AI கணிப்பு திறனும், பெரிதும் விரிவாக்கப்பட்ட நினைவகத்தையும் கொண்டுள்ள இச்சிப்கள், வேகமாக வளர்ந்து வரும் AI Inferencing சந்தையில் NVIDIA-வின் ஆதிக்கத்தை நிலைநிறுத்தும் முக்கியமான முயற்சியாகும். எதிர்காலத்தில், இந்த Inferencing சந்தை, AI பயிற்சி சந்தையை விட பெரிதாக வளர வாய்ப்பு உள்ளது.
AI Inferencing சந்தையில் ஆதிக்கம் செலுத்த NVIDIA புதிய Blackwell Ultra சிப்களை அறிமுகப்படுத்தியது

NVIDIA, தனது Blackwell Ultra கட்டமைப்பை அறிமுகப்படுத்துவதற்காக தயாராகி வருகிறது. இது, இந்த ஆண்டு முன்பே அறிவிக்கப்பட்ட Blackwell தளத்தின் முக்கியமான மேம்படுத்தப்பட்ட பதிப்பாகும்.

AI பயிற்சி சந்தையில் NVIDIA முன்னிலை வகித்து வந்தாலும், தற்போது AI Inferencing பகுதியில் போட்டி அதிகரித்து வருகிறது. இதில், AI மாதிரிகள் பயிற்சி பெறாமல், பதில்கள் உருவாக்கும் பணியில் பயன்படுத்தப்படுகின்றன. தொழில்நுட்பம் மேம்பட்டு, AI பயன்பாடுகள் பரவலாகும் நிலையில், எதிர்காலத்தில் Inferencing சந்தை வேகமாக வளரும் என வல்லுநர்கள் கணிக்கின்றனர். AI பயிற்சி வேலைகள் முழு தரவு மையங்களில் மிகப்பெரிய கணிப்பொறி சக்தியை தேவைப்படுத்தினாலும், Inferencing வேலைகள் பலவகை சிறப்பு ஹார்ட்வேர்களால் கையாள முடியும்.

Blackwell Ultra அடிப்படையிலான தயாரிப்புகள், 2025-இன் இரண்டாம் பாதியில் NVIDIA-வின் கூட்டாளிகளிடம் கிடைக்கத் தொடங்கும் என எதிர்பார்க்கப்படுகிறது. Amazon Web Services, Google Cloud, Microsoft Azure, Oracle Cloud Infrastructure போன்ற முக்கிய கிளவுட் சேவை வழங்குநர்கள் முதலில் இந்த சிப்களை வழங்குவார்கள். Dell, HPE, Lenovo, Supermicro போன்ற சர்வர் உற்பத்தியாளர்களும் தங்களது வடிவமைப்புகளில் Blackwell Ultra-வை இணைப்பார்கள்.

இந்த புதிய கட்டமைப்பு, NVIDIA-வின் இரண்டாம் தலைமுறை Transformer Engine மற்றும் தனிப்பயன் Blackwell Tensor Core தொழில்நுட்பத்துடன், TensorRT-LLM மற்றும் NeMo Framework புதுமைகளையும் இணைக்கிறது. இதனால் பெரிய மொழி மாதிரிகளுக்கான பயிற்சி மற்றும் Inferencing இரண்டிலும் வேகம் அதிகரிக்கிறது. Blackwell Ultra Tensor Cores, சாதாரண Blackwell GPU-க்களை விட 2 மடங்கு அதிக Attention-layer வேகம் மற்றும் 1.5 மடங்கு அதிக AI கணிப்பு FLOPS வழங்குகிறது.

NVIDIA-வின் தகவலின்படி, Blackwell Ultra குடும்பம், ஒரு சிப்க்கு 15 petaFLOPS வரை 4-bit floating-point திறனும், 288 GB வரை HBM3e நினைவகத்தையும் கொண்டுள்ளது. இது, பெரும்பாலும் நினைவக திறனை சார்ந்த AI Inferencing பணிகளுக்கு மிகவும் முக்கியமானது. நினைவகம் அதிகமாக இருந்தால், பெரிய மாதிரிகளை சேவை செய்ய முடியும். NVIDIA-வின் Hyperscale மற்றும் HPC துணைத் தலைவர் Ian Buck கூறுகையில், Blackwell Ultra, முந்தைய Hopper தலைமுறை சிப்களை விட 10 மடங்கு அதிக Throughput-இல் Reasoning மாதிரிகளை சேவை செய்யும்; பதில் நேரம் ஒரு நிமிடத்திலிருந்து பத்து வினாடிகளுக்கு குறையும் என்கிறார்.

NVIDIA-வுக்கு, AMD-யிலிருந்து போட்டி அதிகரித்து வருகிறது. சமீபத்தில், AMD தனது MI300 AI சிப்களை அறிமுகப்படுத்தி, NVIDIA-வின் சப்ளை குறைபாடுகளால் மாற்று தேடும் நிறுவனங்களில் வரவேற்பை பெற்றுள்ளது. 2025-இல், Untether AI நிறுவனத்திலிருந்து AI ஹார்ட்வேர் மற்றும் மென்பொருள் பொறியாளர்களை வாங்கி, Inferencing திறன்களை மேம்படுத்தும் திட்டத்தை AMD அறிவித்துள்ளது. Amazon-வும், Graviton4 மற்றும் Project Rainier-இன் Trainium சிப்கள் மூலம் முழு AI கட்டமைப்பை கட்டுப்படுத்தும் நோக்கத்துடன் செயல்படுகிறது. Claude 4 போன்ற பெரிய AI மாதிரிகளை NVIDIA அல்லாத ஹார்ட்வேரில் பயிற்சி செய்து வெற்றி கண்டுள்ளது.

இந்த சவால்கள் இருந்தாலும், 2025-இல் NVIDIA-வின் தரவு மைய வருவாய் $200 பில்லியனாக அதிகரிக்கும் என்றும், அருகிலுள்ள காலத்தில் 80-85% சந்தை பங்கைக் காக்கும் என்றும் நிபுணர்கள் கணிக்கின்றனர். Blackwell Ultra-வின் மூலம், Inferencing சந்தையில் தனது நிலையை உறுதி செய்யும் நோக்கத்துடன், பயிற்சி திறனிலும் தொடர்ந்த புதுமைகளை மேற்கொள்ள NVIDIA திட்டமிட்டுள்ளது. இதன் மூலம், முன்னணி AI மாதிரிகள் கட்டாயம் NVIDIA ஹார்ட்வேர் மீது மட்டுமே சார்ந்திருக்க வேண்டும் என்ற பார்வை மாற்றப்படலாம்.

Source: Technologyreview

Latest News