19 Jobs für Datenmodellierung in Deutschland
Software Engineer DevOps für Testautomatisierung / Datenmodellierung (d/m/w)
Vor 2 Tagen gepostet
Job angesehen
Arbeitsbeschreibung
Freiburg im Breisgau
ab sofortFür unser Team "FBL Planung & Organisation" im Geschäftsbereich Business Technology L&D suchen wir zum nächstmöglichen Termin am Standort Freiburg im Breisgau eine/n Software Engineer AWS & TypeScript (d/m/w) - Event-Driven Architectures.
DAS ERWARTET DICH:- Du bist Teil eines agilen Scrum-Teams und verantwortest gemeinsam mit dem Team Konzeption, Entwicklung und Betrieb unserer Anwendungen
- Du konzipierst und entwickelst neue Services in einer vollständig auf TypeScript basierenden Umgebung (Frontend, Backend, Infrastructure as Code)
- Du arbeitest in einer eventgetriebenen Architektur auf Basis von AWS Lambda, SNS/SQS und weiteren Cloud-Services
- Du nutzt PostgreSQL auf AWS RDS für komplexe fachliche Anforderungen und beherrschst relationale Datenmodellierung
- Du wendest Domain-Driven Design in der Entwicklung unserer Business-Domänen an und hilfst dabei, komplexe Legacy-Prozesse in moderne Services zu überführen
- Im Frontend arbeitest du mit React, im Backend mit Node.js, jeweils unter Einhaltung moderner Software Engineering Prinzipien
- Mehrjährige Erfahrung in der Entwicklung mit TypeScript, sowohl im Backend (Node.js) als auch idealerweise im Frontend (React)
- Idealerweise hast du Kenntnisse im Umgang mit AWS, insbesondere Lambda, SQS/SNS, RDS und dynamischen Serverless-Architekturen
- Du bist vertraut mit eventgesteuerten und verteilten Systemen sowie asynchroner Kommunikation
- Du kennst die Prinzipien von Domain-Driven Design und hast idealerweise bereits damit gearbeitet
- Du bist vertraut mit DevOps-Praktiken, CI/CD, Testautomatisierung und Infrastructure as Code (z. B. mit AWS CDK)
- Die Bereitschaft, 2-3 Tage pro Woche in Freiburg vor Ort zu arbeiten und sehr gute Deutschkenntnisse (B2-C1) runden dein Profil ab
Job ID: REF71Q
Software Engineer DevOps für Testautomatisierung / Datenmodellierung (d/m/w)
Heute
Job angesehen
Arbeitsbeschreibung
Software Engineer DevOps für Testautomatisierung / Datenmodellierung (d/m/w)
Heute
Job angesehen
Arbeitsbeschreibung
Freiburg im Breisgau
ab sofortFür unser Team "FBL Planung & Organisation" im Geschäftsbereich Business Technology L&D suchen wir zum nächstmöglichen Termin am Standort Freiburg im Breisgau eine/n Software Engineer AWS & TypeScript (d/m/w) - Event-Driven Architectures.
DAS ERWARTET DICH:- Du bist Teil eines agilen Scrum-Teams und verantwortest gemeinsam mit dem Team Konzeption, Entwicklung und Betrieb unserer Anwendungen
- Du konzipierst und entwickelst neue Services in einer vollständig auf TypeScript basierenden Umgebung (Frontend, Backend, Infrastructure as Code)
- Du arbeitest in einer eventgetriebenen Architektur auf Basis von AWS Lambda, SNS/SQS und weiteren Cloud-Services
- Du nutzt PostgreSQL auf AWS RDS für komplexe fachliche Anforderungen und beherrschst relationale Datenmodellierung
- Du wendest Domain-Driven Design in der Entwicklung unserer Business-Domänen an und hilfst dabei, komplexe Legacy-Prozesse in moderne Services zu überführen
- Im Frontend arbeitest du mit React, im Backend mit Node.js, jeweils unter Einhaltung moderner Software Engineering Prinzipien
- Mehrjährige Erfahrung in der Entwicklung mit TypeScript, sowohl im Backend (Node.js) als auch idealerweise im Frontend (React)
- Idealerweise hast du Kenntnisse im Umgang mit AWS, insbesondere Lambda, SQS/SNS, RDS und dynamischen Serverless-Architekturen
- Du bist vertraut mit eventgesteuerten und verteilten Systemen sowie asynchroner Kommunikation
- Du kennst die Prinzipien von Domain-Driven Design und hast idealerweise bereits damit gearbeitet
- Du bist vertraut mit DevOps-Praktiken, CI/CD, Testautomatisierung und Infrastructure as Code (z. B. mit AWS CDK)
- Die Bereitschaft, 2-3 Tage pro Woche in Freiburg vor Ort zu arbeiten und sehr gute Deutschkenntnisse (B2-C1) runden dein Profil ab
Job ID: REF71Q
Mandatory Internship in Data Modeling and Semantic Data Layer
Heute
Job angesehen
Arbeitsbeschreibung
Company Description
At Bosch, we shape the future by inventing high-quality technologies and services that spark enthusiasm and enrich people's lives. Our promise to our associates is rock-solid: we grow together, we enjoy our work, and we inspire each other. Join in and feel the difference.
The Robert Bosch GmbH is looking forward to your application
Job Description
- During your internship, you will support in the design and implementation of data models for our Data Layer, considering various use cases such as analytics and AI.
- You will assist in the semantic modeling of data, including the creation and maintenance of ontologies (e.g., using TTL files).
- Furthermore, you will develop Proofs of Concept (PoCs) using Python to explore and validate new data modeling approaches and technologies.
- In addition, you will implement data pipelines (e.g., ETL pipelines) to practically utilize the developed semantic models.
- Last but not least, you will evaluate and test various data modeling tools and methodologies.
Qualifications
- Education: studies in the field of Computer Science, Data Science, Business Informatics or comparable
- Experience and Knowledge: solid programming skills in SQL and Python, including experience with relevant data processing and analysis libraries (e.g., Pandas, NumPy, Scikit-learn); a foundational understanding of data modeling concepts (e.g., 3rd Normal Form, Star Schema, Snowflake Schema); basic knowledge of data warehousing principles and/or ontologies
- Personality and Working Practice: you are a proactive and curious individual with strong analytical and problem-solving skills, eager to learn new technologies and concepts
- Languages: fluent in written and spoken English
Additional Information
Start: according to prior agreement
Duration: 3 - 6 months
We offer you
- 35 hours/week with flextime
- a permanent contact person who will accompany you during your internship
- a modern working environment, as well as mobile working by arrangement
- the opportunity to become part of our student network Stuttgart
- discounts in our company restaurants
Requirement for this internship is the enrollment at university. Please attach your CV, transcript of records, enrollment certificate, examination regulations and if indicated a valid work and residence permit.
Diversity and inclusion are not just trends for us but are firmly anchored in our corporate culture. Therefore, we welcome all applications, regardless of gender, age, disability, religion, ethnic origin or sexual identity.
Need further information about the job?
Matthias Braunert (Functional Department)
Senior Data Scientist (Risk Modeling)
Vor 5 Tagen gepostet
Job angesehen
Arbeitsbeschreibung
Ihre Verantwortlichkeiten:
- Entwicklung, Implementierung und Wartung von fortschrittlichen statistischen und Machine-Learning-Modellen für Risikobewertung und -management.
- Datenanalyse und Exploration zur Identifizierung von Mustern und Treibern von Risiken.
- Validierung und Kalibrierung von Modellen zur Sicherstellung ihrer Genauigkeit und Zuverlässigkeit.
- Zusammenarbeit mit Fachabteilungen (Risiko, Aktuariat, Underwriting) zur Definition von Modellierungsanforderungen.
- Bereinigung, Transformation und Aufbereitung großer, komplexer Datensätze.
- Bewertung der Modellperformance und Ableitung von Handlungsempfehlungen.
- Aufbau von Prototypen und Durchführung von A/B-Tests für neue Modellansätze.
- Dokumentation von Modellen und Prozessen gemäß regulatorischen Anforderungen.
- Präsentation von Analyseergebnissen und Modellergebnissen für technische und nicht-technische Stakeholder.
- Kontinuierliche Beobachtung neuer Technologien und Methoden im Bereich Data Science und Risikomodellierung.
Ihr Profil:
- Masterabschluss oder Promotion in einem quantitativen Fach (z.B. Statistik, Mathematik, Informatik, Physik, Ökonometrie).
- Mindestens 5 Jahre einschlägige Berufserfahrung in der Data Science, insbesondere in der Risikomodellierung im Finanzdienstleistungs- oder Versicherungssektor.
- Fundierte Kenntnisse in Machine Learning, statistischer Modellierung und Prädiktiver Analytik.
- Umfassende Erfahrung mit Programmiersprachen wie Python oder R und relevanter Bibliotheken (scikit-learn, TensorFlow, PyTorch, statsmodels).
- Erfahrung im Umgang mit Datenbanken (SQL) und großen Datensätzen.
- Vertrautheit mit regulatorischen Anforderungen im Finanz-/Versicherungsumfeld (z.B. Solvency II, Basel).
- Hervorragende analytische und Problemlösungsfähigkeiten.
- Starke Kommunikationsfähigkeiten zur Erklärung komplexer technischer Sachverhalte.
- Fähigkeit zur effektiven Arbeit in einem Remote-Team.
- Sehr gute Deutsch- und Englischkenntnisse.
Dies ist eine herausragende Gelegenheit, in einem zukunftsorientierten Unternehmen eine Schlüsselrolle zu übernehmen und maßgeblich zur Risikosteuerung beizutragen. Wenn Sie ein passionierter Data Scientist mit Expertise in der Risikomodellierung sind, freuen wir uns auf Ihre Bewerbung.
Senior Data Scientist - Financial Modeling
Vor 5 Tagen gepostet
Job angesehen
Arbeitsbeschreibung
Senior Data Scientist - Predictive Modeling
Vor 5 Tagen gepostet
Job angesehen
Arbeitsbeschreibung
Ihre Hauptverantwortlichkeiten:
- Entwicklung und Implementierung von skalierbaren Machine-Learning-Modellen für prädiktive Analysen und Prognosen.
- Analyse großer und komplexer Datensätze aus verschiedenen Quellen zur Gewinnung wertvoller Erkenntnisse.
- Design und Durchführung von A/B-Tests und Experimenten zur Validierung von Modellen und Hypothesen.
- Zusammenarbeit mit Engineering-Teams zur Integration von Modellen in Produktionssysteme.
- Kommunikation von komplexen technischen Ergebnissen und Empfehlungen an nicht-technische Stakeholder.
- Bewertung und Anwendung neuer analytischer Methoden und Technologien.
- Mentoring von Junior Data Scientists und Förderung von Best Practices im Team.
- Identifizierung neuer Anwendungsfälle für Datenanalyse und prädiktive Modellierung.
- Datenbereinigung, Transformation und Feature Engineering.
- Sicherstellung der Datenqualität und Modellperformance über die Zeit.
Ihr Profil:
- Masterabschluss oder Promotion in Informatik, Statistik, Mathematik, Physik oder einem verwandten quantitativen Fach.
- Mehrjährige Erfahrung als Data Scientist, mit einem starken Fokus auf prädiktive Modellierung und Machine Learning.
- Fundierte Kenntnisse in statistischen Methoden, Algorithmen des maschinellen Lernens (z.B. Regression, Klassifikation, Clustering, Deep Learning) und deren Anwendung.
- Profunde Kenntnisse in Python oder R sowie gängigen Data-Science-Bibliotheken (z.B. Scikit-learn, TensorFlow, PyTorch, Pandas).
- Erfahrung mit Big-Data-Technologien (z.B. Spark, Hadoop) und Cloud-Plattformen (AWS, Azure, GCP) ist von Vorteil.
- Fähigkeit, komplexe Probleme zu lösen und kreative Ansätze zu entwickeln.
- Hervorragende Kommunikationsfähigkeiten zur Präsentation von Ergebnissen und zur Zusammenarbeit mit verschiedenen Teams.
- Eigeninitiative, Selbstmanagement und die Fähigkeit, in einem remote-basierten Umfeld erfolgreich zu arbeiten.
- Sehr gute Englischkenntnisse in Wort und Schrift.
Wir suchen eine motivierte und erfahrene Persönlichkeit, die bereit ist, mit modernsten Techniken der Datenwissenschaft die Zukunft unseres Klienten mitzugestalten. Wenn Sie eine Leidenschaft für Daten und die Entwicklung intelligenter Systeme haben und flexibel von überall arbeiten möchten, freuen wir uns auf Ihre Bewerbung.
Seien Sie der Erste, der es erfährt
Über das Neueste Datenmodellierung Jobs In Deutschland !
Senior Data Scientist (Risk Modeling)
Vor 5 Tagen gepostet
Job angesehen
Arbeitsbeschreibung
Ihre Hauptverantwortlichkeiten umfassen die Datenaufbereitung, Exploration und Analyse von Versicherungsdaten (z.B. Schadensdaten, Kundeninformationen, Marktdaten). Sie entwickeln und validieren statistische Modelle, Machine Learning Algorithmen und Deep Learning Ansätze zur Vorhersage von Risiken, Betrugserkennung und zur Optimierung von Preisstrategien. Sie arbeiten eng mit Aktuaren, Underwritern und IT-Spezialisten zusammen, um sicherzustellen, dass die Modelle den regulatorischen Anforderungen entsprechen und geschäftliche Anforderungen erfüllen. Die Präsentation von komplexen Analyseergebnissen für nicht-technische Stakeholder gehört ebenfalls zu Ihren Aufgaben. Sie werden auch dazu beitragen, die Dateninfrastruktur und die analytischen Werkzeuge kontinuierlich zu verbessern.
Wir erwarten einen Master-Abschluss oder eine Promotion in einem quantitativen Fach wie Statistik, Informatik, Mathematik oder einem verwandten Feld, sowie mindestens 5 Jahre relevante Berufserfahrung in der Datenwissenschaft, idealerweise im Finanz- oder Versicherungssektor. Fundierte Kenntnisse in Programmiersprachen wie Python oder R und deren relevanten Bibliotheken (z.B. Pandas, NumPy, Scikit-learn, TensorFlow, PyTorch) sind unerlässlich. Erfahrung mit SQL und NoSQL-Datenbanken sowie Kenntnisse in Big-Data-Technologien (z.B. Spark, Hadoop) sind von großem Vorteil. Sie verfügen über ein tiefes Verständnis verschiedener Machine-Learning-Techniken und deren Anwendung. Ausgezeichnete analytische und Problemlösungsfähigkeiten, sowie die Fähigkeit, komplexe Ergebnisse verständlich zu kommunizieren, sind entscheidend. Sie sind ein Teamplayer mit einer proaktiven und ergebnisorientierten Arbeitsweise.
Senior Data Scientist - Risk Modeling
Vor 5 Tagen gepostet
Job angesehen
Arbeitsbeschreibung
Verantwortlichkeiten:
- Entwicklung, Validierung und Implementierung von Risikomodellen (z. B. Kreditrisiko, Marktrisiko, operationelles Risiko).
- Analyse großer und komplexer Datensätze zur Identifizierung von Risikotreibern und Mustern.
- Erstellung von Prognosemodellen unter Verwendung von Machine Learning und statistischen Verfahren.
- Kommunikation von Modellierungs-Ergebnissen und Empfehlungen an Fachbereiche und das Management.
- Sicherstellung der Einhaltung regulatorischer Anforderungen (z. B. Solvency II, Basel III).
- Erstellung technischer Dokumentationen und Berichte über Modellierungsansätze.
- Koordination mit IT-Teams zur Implementierung von Modellen in Produktionsumgebungen.
- Mentoring von Junior Data Scientists und Data Analysts.
Qualifikationen:
- Master-Abschluss oder Promotion in Mathematik, Statistik, Informatik, Physik oder einem quantitativen Fachgebiet.
- Mindestens 5 Jahre Berufserfahrung im Bereich Data Science oder quantitative Modellierung, vorzugsweise in der Finanzdienstleistungs- oder Versicherungsbranche.
- Umfassende Kenntnisse in statistischer Modellierung, Machine Learning und prädiktiver Analytik.
- Erfahrung mit Programmiersprachen wie Python oder R und relevanter Bibliotheken (z. B. scikit-learn, TensorFlow).
- Vertrautheit mit Datenbanken und SQL.
- Kenntnisse im Bereich Risikomanagement oder Aktuariat sind von Vorteil.
- Ausgezeichnete analytische und Problemlösungsfähigkeiten.
- Sehr gute Kommunikationsfähigkeiten in Deutsch und Englisch.
Senior Data Scientist - Risk Modeling
Vor 5 Tagen gepostet
Job angesehen
Arbeitsbeschreibung
Ihre Aufgaben:
- Entwicklung, Validierung und Implementierung von quantitativen Risikomodellen für verschiedene Versicherungssparten (z.B. Leben, Sach, Haftpflicht).
- Anwendung von statistischen Verfahren und Machine-Learning-Algorithmen zur Analyse großer Datenmengen und zur Identifikation von Risikotrends.
- Erstellung von Datensätzen, Feature Engineering und Modellselektion.
- Bewertung der Modellperformance und Durchführung von Sensitivitätsanalysen.
- Dokumentation der entwickelten Modelle und Prozesse sowie Präsentation der Ergebnisse für Fachabteilungen und das Management.
- Zusammenarbeit mit Underwriting-, Aktuar- und IT-Teams zur Integration der Modelle in operative Prozesse.
- Identifikation und Implementierung neuer Datenquellen und Analysemethoden.
- Überwachung von regulatorischen Anforderungen und deren Umsetzung in die Modelle.
- Mentoring von Junior Data Scientists und Wissensaustausch im Team.
- Beitrag zur Weiterentwicklung der Data Science-Strategie des Unternehmens.
Ihr Profil:
- Abgeschlossenes Masterstudium oder Promotion in Statistik, Mathematik, Informatik, Physik, Ökonometrie oder einem verwandten quantitativen Fach.
- Mindestens 5 Jahre Berufserfahrung im Bereich Data Science, Risikomanagement oder Aktuarwissenschaften, idealerweise in der Versicherungsbranche.
- Vertiefte Kenntnisse in der Entwicklung und Anwendung von statistischen Modellen und Machine-Learning-Algorithmen (z.B. Regression, Klassifikation, Zeitreihenanalyse, Gradient Boosting, neuronale Netze).
- Sicherer Umgang mit Programmiersprachen wie Python oder R sowie entsprechenden Bibliotheken (z.B. Pandas, Scikit-learn, TensorFlow, PyTorch).
- Erfahrung mit Datenbanken und SQL.
- Kenntnisse in Cloud-Umgebungen (AWS, Azure, GCP) und Big-Data-Technologien (z.B. Spark) sind von Vorteil.
- Starke analytische Fähigkeiten, Problemlösungskompetenz und eine strukturierte Arbeitsweise.
- Ausgezeichnete Kommunikations- und Präsentationsfähigkeiten in Deutsch und Englisch.
- Hohe Eigenmotivation, Teamfähigkeit und die Fähigkeit, selbstständig und ergebnisorientiert zu arbeiten.
- Verständnis für versicherungstechnische Fragestellungen und regulatorische Rahmenbedingungen (z.B. Solvency II).
Wir bieten Ihnen ein spannendes Arbeitsumfeld mit anspruchsvollen Projekten, die Möglichkeit zur kontinuierlichen Weiterentwicklung und die Flexibilität, Ihre Arbeit vollständig remote zu gestalten. Eine attraktive Vergütung und Sozialleistungen sind selbstverständlich.