NVIDIA open-source CUDA Tile IR, een tussenweergave voor GPU-programmering, op 4 december. Het bedrijf heeft de code op GitHub vrijgegeven onder de Apache 2.0-licentie, waardoor deze beschikbaar is voor gebruik, wijziging en distributie door ontwikkelaars en onderzoekers. Dit initiatief volgt op NVIDIA’s introductie van het CUDA Tile GPU-programmeerparadigma met CUDA 13.1 op 4 december, wat de meest uitgebreide functie-uitbreiding van het platform markeert sinds de lancering in 2006. Deze stap sluit aan bij NVIDIA’s recente openheidsstrategie voor het CUDA-ecosysteem, waarbij de eigen licentie voor CUDA Tile IR wordt ingetrokken. CUDA Tile IR is gebouwd op het MLIR-framework (Multi-Level Intermediate Representation) van het LLVM-project. MLIR is toegepast in AI en high-performance computing, waaronder AMD’s computer- en AI-softwarestack, Google’s IREE-project dat meerdere hardwareplatforms ondersteunt, en Intel’s XeVM MLIR-dialect voor zijn hardware. Andere IR-frameworks zoals ONNX-MLIR, Torch-MLIR en MLIRE-AIE maken ook gebruik van het MLIR-systeem. De MLIR-basis maakt het mogelijk dat CUDA Tile IR wordt geconverteerd naar andere backends, wat een technische basis biedt voor de ondersteuning van gerelateerde computermodellen in niet-NVIDIA GPU- of acceleratoromgevingen. Van open source CUDA Tile IR wordt verwacht dat het compatibiliteits- en porteringsprojecten, waaronder ZLUDA, zal bevorderen. Het open-source CUDA Tile-project omvat een Tile MLIR-dialect, native Python API-bindingen, bytecode-representatie en een conformiteitstestsuite. NVIDIA verklaarde dat CUDA Tile IR “een op MLIR gebaseerde tussenweergave en compilerinfrastructuur is voor CUDA-kerneloptimalisatie, met een focus op het ondersteunen van op tegels gebaseerde rekenpatronen en geoptimaliseerd voor NVIDIA Tensor Core-eenheden.” Het bedrijf voegde eraan toe dat het project “een compleet ecosysteem biedt voor het uitdrukken en optimaliseren van tegelberekeningen voor NVIDIA GPU’s, met als doel de ontwikkeling van krachtige CUDA-kernels te vereenvoudigen door abstracties te bieden voor algemene tegelpatronen, geheugenhiërarchiebeheer en GPU-specifieke optimalisaties.”





