Maschinelles Lernen hat sich zu einer treibenden Kraft der modernen Wissenschaft und Technologie entwickelt. Mit zunehmendem Umfang und der wachsenden Komplexität von Daten bietet es wirkungsvolle Werkzeuge, um verborgene Strukturen zu erkennen, Vorhersagen zu treffen und Entscheidungen zu unterstützen, wo klassische Modellierungsansätze an ihre Grenzen stoßen. Am WIAS wird maschinelles Lernen aus einer mathematischen Perspektive untersucht und in unterschiedlichen Anwendungsfeldern eingesetzt. Ziel ist, die Verfahren effizienter, verlässlicher und besser interpretierbar zu machen. Dabei werden insbesondere Methoden entwickelt, die datengetriebene Modelle mit physikalischen Prinzipien kombinieren.

Ausführlichere Darstellungen der WIAS-Forschungsthemen finden sich auf der jeweils zugehörigen englischen Seite.

Publikationen

  Preprints, Reports, Technical Reports

  • M. Eigel, Ch. Miranda, A. Nouy, D. Sommer, Approximation and learning with compositional tensor trains, Preprint no. 3253, WIAS, Berlin, 2025, DOI 10.20347/WIAS.PREPRINT.3253 .
    Abstract, PDF (1203 kByte)
    We introduce compositional tensor trains (CTTs) for the approximation of multivariate functions, a class of models obtained by composing low-rank functions in the tensor-train format. This format can encode standard approximation tools, such as (sparse) polynomials, deep neural networks (DNNs) with fixed width, or tensor networks with arbitrary permutation of the inputs, or more general affine coordinate transformations, with similar complexities. This format can be viewed as a DNN with width exponential in the input dimension and structured weights matrices. Compared to DNNs, this format enables controlled compression at the layer level using efficient tensor algebra. par On the optimization side, we derive a layerwise algorithm inspired by natural gradient descent, allowing to exploit efficient low-rank tensor algebra. This relies on low-rank estimations of Gram matrices, and tensor structured random sketching. Viewing the format as a discrete dynamical system, we also derive an optimization algorithm inspired by numerical methods in optimal control. Numerical experiments on regression tasks demonstrate the expressivity of the new format and the relevance of the proposed optimization algorithms. par Overall, CTTs combine the expressivity of compositional models with the algorithmic efficiency of tensor algebra, offering a scalable alternative to standard deep neural networks.