Basic Linear Algebra Subprograms

BLAS
Basisdaten

Erscheinungsjahr1979
Aktuelle Version3.10.0
(29. Juni 2021)
Betriebssystemplattformübergreifend
ProgrammierspracheFortran
KategorieLineare Algebra
www.netlib.org/blas

Basic Linear Algebra Subprograms (kurz: BLAS) bezeichnet eine Programmbibliothek, die elementare Operationen der linearen Algebra wie Vektor- und Matrixmultiplikationen bereitstellt. Es gibt eine Vielzahl von Implementierungen in verschiedenen Sprachen bzw. für verschiedene Architekturen und Plattformen. Der Vorteil von BLAS liegt nicht nur in der Wiederverwendbarkeit und der Arbeitserleichterung für den Programmierer, sondern auch in der Möglichkeit für Hardwarehersteller, für diese häufig gebrauchten Subroutinen hochoptimierte, zum Teil in Assembler realisierte Implementierungen bereitzustellen.[1] Daher finden BLAS vor allem im Supercomputing-Bereich breite Verwendung.

Die Definition der Schnittstelle zu BLAS ist ein De-facto-Standard.

Funktionalität

Es werden folgende Datentypen unterstützt: single (32 Bit), double (64 Bit), complex (2 × 32 Bit), doublecomplex (2 × 64 Bit).

Die Funktionalität von BLAS wird in drei Stufen (Level) unterteilt:

Level 1

Level 1 enthält Vektor-Rechenoperationen der Form

sowie unter anderem das Skalarprodukt und Vektornormen.

Level 2

Level 2 enthält Vektor-Matrix-Rechenoperationen der Form

sowie unter anderem das Lösen von linearen Gleichungssystemen mit Matrix in Dreiecksform.

Level 3

Level 3 enthält Matrix-Rechenoperationen der Form

sowie unter anderem das Lösen von für Matrix in Dreiecksform. Dieser Level enthält die oft benötigte Matrixmultiplikation.

Implementierungen

refblas
Offizielle Referenzimplementierung von Netlib. C- und Fortran-77-Versionen sind verfügbar.
ACML
AMD Core Math Library, für AMD-Athlon- und -Opteron-CPUs unter Linux und Windows.
ATLAS
Automatically Tuned Linear Algebra Software, ein Open-Source-Implementierung der BLAS-APIs für C und Fortran 77.
ESSL
IBMs Engineering and Scientific Subroutine Library, für die PowerPC Architektur unter AIX und Linux.
Goto BLAS
BLAS-Implementierung von Kazushige Goto.[2]
OpenBLAS
Weiterentwicklung von Goto BLAS für moderne Prozessoren.
HP MLIB
HPs Math library, für die Architekturen Itanium, PA-RISC, x86 und Opteron unter HP-UX und Linux.
IMKL
Intel Math Kernel Library (BLAS, LAPACK, ScaLAPACK, Sparse Solvers, FFT, Vector Math), für Intel-Prozessoren unter Linux, macOS und Windows.
LAMA
Die Library for Accelerated Math Applications (LAMA) ist eine, in C++ geschriebene, Template-Bibliothek zum Schreiben numerischer Löser für verschiedene Hardware (z. B. GPUs mittels CUDA oder OpenCL) in Systemen mit verteiltem Speicher – sie versteckt die hardwarespezifische Programmierung vor dem Anwendungsentwickler.[3]
MTL4
Die Matrix Template Library Version 4 ist eine generische C++-Template-Bibliothek für schwach und voll besetzte BLAS-Funktionalität. MTL4 bietet ein intuitives Interface (ähnlich Matlab) und dank Generischer Programmierung eine breite Anwendbarkeit.
uBLAS
Eine generische C++-Klassenbibliothek, welche BLAS-Funktionalität bereitstellt, Teil der Boost-Bibliothek.
CUBLAS
Die Nvidia-Implementierung von BLAS für die CUDA-Technologie.
clBLAS
Eine Implementierung von BLAS für OpenCL.
AmdBLAS
Die AMD-Implementierung von BLAS für das ATI-Stream-SDK.
Armadillo
Die Armadillo Template-Bibliothek ist ein Wrapper für C++.

Weblinks

Einzelnachweise

  1. BLAS Benchmark-August2008. eigen.tuxfamily.org. 1. August 2008. Abgerufen am 4. März 2010.
  2. Writing the Fastest Code, by Hand, for Fun: A Human Computer Keeps Speeding Up Chips (englisch). New York Times, John Markoff. 28. November 2005. Abgerufen am 4. März 2010.
  3. www.libama.org