Künstliche Intelligenz

Datengetriebene Materialentwicklung für die Industrie

artificial intelligence brain

Wir haben Terabytes an Daten analysiert. Wir rechnen auf modernen Hochleistungsclustern und in der Cloud (GCP, Azure, AWS).
Nutzen Sie unser Fachwissen im technischen Computing, um Ihre Herausforderungen mit künstlicher Intelligenz und Data Science zu lösen und neue Muster in Ihren Daten zu erkennen.

Künstliche Intelligenz Datenanalyse

Paradigmenwechsel

Die Fülle der experimentellen Daten ermöglichen neuartige Problemlösungen. Datenintensive Algorithmen wie Machine Learning verkörpern einen Paradigmenwechsel im Engineering. Sie machen bisher unsichtbare Zusammenhänge sichtbar.

Datenschatz heben

Die manuelle Bilddatenanalyse kann sehr zeitaufwendig oder komplex sein. Eine fundierte Interpretation erfordert tiefgreifende Materialkenntnisse. Unsere Erfahrung in Data Science ermöglicht automatisierte und quantitative Analysen von Bildern. Eine moderne Visualisierung macht die Interpretation einfach und verständlich.

Künstliche Intelligenz Datenanalyse
Künstliche Intelligenz Datenanalyse

Zukunft vorhersagen

Viele technische Herausforderungen können als Klassifikations- oder Regressionsaufgaben formuliert werden. Diese Methoden ermöglichen Prozessoptimierungen, Vorhersagen von Ergebnissen oder schnelle OK-NOK-Bewertungen. Solche Vorhersagen führen zu neuartigen Lösungen und beschleunigen die Entwicklung. 

Technische Fertigkeiten

logos of maXerial's computational skills

Computational Skills

  • Python, Matlab (Octave)
  • C++
  • Fortran
  • Bash
  • Erfahrung im Bereich High-Performance Computing
  • Erfahren in der Arbeit in UNIX Umgebungen
  • Verschiedene Materialsimulationen
logos of maXerial's machine learning skills

Machine Learning Skills

  • Tensorflow, OpenCV, Keras, scikit-learn
  • Objekterkennung (z.B. mask R-CNN)
  • (Variational) Autoencoder
  • CNN (1D, 2D, 3D)
  • SVM, Random Forest
  • K-means Clustering
  • Zeitreihenanalyse, RNN
  • Numpy, Pandas
  • RDKIT
logos of maXerial's data visualization & reporting skills

Data Visualization & Reporting

  • Volume Graphics VG STUDIO MAX
  • Paraview, Visualization Toolkit (VTK)
  • Fiji/ImageJ
  • Jupyter, Matplotlib, Plotly, Streamlit, Gnuplot
  • LaTeX
  • VMD
  • Dragonfly
logos of maXerial's data visualization & reporting skills

Cloud Infrastructure

  • Erfahrung mit GCP, Azure, and AWS
  • GitHub, GitLab
  • NoSQL DBs und Tools
  • SLURM, Azure Cycle Cloud
  • Erfahrung im Betreiben von wissenschaftlichen Compute Umgebungen

Technical Computing im Einsatz

3D visualization of fibers

3D-Datenvisualisierung

Die Analyse grosser 3D-Datensätze erfordert den Einsatz fortschrittlicher Visualisierungssoftwarepakete. Wir sind Experten für gängige 3D-Suiten wie Volume Graphics oder ParaView. Wir entwickeln eigene Post-Processing-Algorithmen zur Quantifizierung von Materialeigenschaften oder physikalischen Kenngrössen. Dies ermöglicht die Verbesserung von Konstruktionen und Prozessen in Entwicklung und Produktion.

Interaktive Diagramme

Wir wollen Daten zum Leben erwecken. Wir verwenden modernste Datendarstellungspakete, um den Nutzern ein interaktives Erlebnis zu bieten und sie ihre Daten selbst erforschen zu lassen. Wir sind davon überzeugt, dass die spielerische Verfügbarkeit von Daten zu einem tieferen Verständnis und einer schnelleren Lösung von technischen Herausforderungen führt.


A simple GUI

Einfache GUIs für KI & Data Science

Wir sind uns bewusst, dass Low-Code-Umgebungen für den täglichen Betrieb erforderlich sind. Mit einfachen grafischen Umgebungen ermöglichen wir es auch Nicht-Experten, komplexe Algorithmen für maschinelles Lernen mit wenigen Klicks auszuführen. Wir bringen die gesamte KI-Maschinerie in Ihr Unternehmen - containerisiert und wartbar.

Python code

Tiefergehende Analysen

Wir schreiben massgeschneiderte Python-Analysen in wenigen Stunden - eine effektive Ergänzung zu den in der Industrie üblichen Bewertungsmethoden mit Tabellenkalkulationen. Für Anwendungen mit hohem Datendurchsatz verwenden wir massiv parallele Umgebungen in C++. Wir tun dies in unseren selbst gewarteten Linux-Umgebungen.

Machine Learning

Wir haben langjährige Erfahrung in der Anwendung von Machine Learning. Die Implementierungen reichen von chemischen Reaktionsmechanismen bis hin zur Vorhersage von physikalischen Eigenschaften kondensierter Materie. Unser KI-Werkzeugkasten umfasst sowohl klassische Shallow Learning Techniken als auch datenintensivere Deep Learning Applikationen, z.B. mit TensorFlow oder ähnlichen Bibliotheken. Diese Techniken eignen sich hervorragend für Computer-Vision-Anwendungen, wie sie beispielsweise in der industriellen Computertomographie eingesetzt werden.

Correlation diagram

Data Science

Data Science erfordert fundierte statistische Kenntnisse und Erfahrung in der Analyse großer Datenmengen. Mit unserer langjährigen wissenschaftlichen und technischen Erfahrung können wir Sie bei der Ableitung von quantifizierbaren Leistungskennzahlen, Qualitätsmerkmalen oder Korrelationen von Variablen oder Parametern unterstützen. Wir beginnen oft mit einem leeren Blatt und einer Idee, die dann in Code übersetzt wird.

Overview of NVIDIA GPUs

Cloud Infrastruktur

Wir richten Hochleistungs-Rechenumgebungen auf Google Cloud Platform (GCP), Microsoft Azure und Amazon Web Services (AWS) ein. Dies ermöglicht den Zugang zu flexibel skalierbaren GPU-Trainingsumgebungen. Für rechenintensive Aufgaben verfügen wir über umfangreiche Erfahrungen bei der Einrichtung von Hochleistungs-Rechenclustern.

maXerial 1-click-AI-trainer button

1-Click-KI-Trainer

Der 1-Click-KI-Trainer von maXerial ist ein Tool, das den Prozess der Erstellung und des Trainings von Modellen der künstlichen Intelligenz vereinfacht. Mit nur einem Klick automatisiert das Tool den Prozess der Datenvorverarbeitung, des Modelltrainings, der Abstimmung der Hyperparameter und der Bewertung. So können auch Laien schnell KI-Modelle für Aufgaben wie Bildklassifizierung, Prozessoptimierung oder prädiktive Analysen entwickeln und einsetzen. Das resultierende Modell kann verwendet werden, um genaue Vorhersagen und Entscheidungen auf der Grundlage neuer Daten zu treffen.