L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 593 résultats.
Offre d'emploi
Responsable d'applications RUN confirmé
Publiée le
Azure Data Factory
Databricks
ITIL
12 mois
50k-70k €
400-550 €
Châtillon, Île-de-France
Télétravail partiel
Bonjour, Nous recherchons pour notre client basé en région parisienne un Responsable d’Applications – confirmé (4 - 10 ans d’expérience) Objectif : Piloter et sécuriser les évènements de production Les livrables sont Analyser des incidents pour en comprendre la cause afin de déterminer la solution à appliquer Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets métiers divers et variés Compétences techniques méthode ITIL - Expert - Impératif méthode Agile - Confirmé - Impératif Azure Datafactory - Confirmé - Important Databricks - Confirmé – Important Description détaillée Responsable d'application au Datalab : Assure et coordonne les activités de maintenance corrective et évolutive des applications dont il est responsable. * Il est responsable de la qualité de service délivrée dans le respect des contrats (support, qualité, sécurité, …) vis-à-vis des entités métiers en s’appuyant sur les équipes transverses. * Il est aussi le garant du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité de l’application. * Il est en interface avec le métier et répond aux demandes d’évolution ou des projets en lien avec le Responsable SI Métier et le Chef de Projet. (*) On entend par « applications » : les programmes, les données, les paramétrages, les services exposés (API), les infrastructures techniques et les interfaces/flux inter applicatifs. Compétences requises : * Faire preuve de rigueur et être force de proposition * Savoir travailler en équipe et avoir de bonnes qualités relationnelles * Excellentes compétences techniques : Connaissance et application de la méthode ITIL (Gestion des incidents, problèmes, etc..) Connaissance et application de la méthode Agile Connaissance Azure Datafactory Connaissance Databricks (Spark SQL, Scala) Connaissance d'outils ITSM (Service Now ou équivalent) Données complémentaires Date de démarrage 03/11/2025 Lieu de réalisation Châtillon Déplacement à prévoir non Le projet nécessite des astreintes nonw Nombre de jours souhaitables sur site 3 jours par semaine Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
Data Analyst Splunk ITSI – Secteur Bancaire – Région Parisienne (H/F)
Publiée le
BI
Splunk
SQL
38k-42k €
Île-de-France, France
Télétravail partiel
Contexte du poste Rejoignez une entreprise majeure dans le secteur bancaire, engagée dans une transformation digitale ambitieuse. Située en Ile-De-France, notre entité est au cœur d’un projet stratégique visant à optimiser nos infrastructures IT grâce à des solutions innovantes de gestion de données. Vous intégrerez une équipe composée de passionnés de technologie et d’experts en data, dédiée à la création et à l’optimisation des dashboards ITSI. Cette mission vitale pour notre équipe a émergé pour renforcer notre capacité à analyser, interpréter, et intégrer les logs de nos infrastructures à travers la plateforme Splunk. Missions Missions principales Développer et optimiser les dashboards Splunk ITSI pour le monitoring et la performance SI. Configurer Splunk et structurer la base de données logs pour les infrastructures. Organiser, nettoyer, modéliser et fiabiliser les jeux de données nécessaires au pilotage. Explorer les données, produire des analyses, identifier tendances et anomalies. Créer ou améliorer des requêtes SPL et des algorithmes d’extraction pertinents. Industrialiser les traitements récurrents et assurer la qualité des gisements de données. Collaborer avec les équipes Argos pour comprendre les besoins métiers et orienter les dashboards. Documenter les travaux, sécuriser la cohérence et garantir un usage opérationnel durable. Participer à l’exploration de données complexes et à l’industrialisation des processus d’analyse. Soutenir le management dans la résolution des enjeux métiers via l’analyse de données passées. Stack technique Stack principale à maîtriser Splunk Dashboarding Splunk ITSI Data Analyse
Offre d'emploi
Chef de Projet Technique – Pilotage projets Data & Sécurité (H/F)
Publiée le
.NET
Java
Pilotage
45k-55k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Offre d’emploi : Chef de Projet Technique – Pilotage projets Data & Sécurité (H/F) Lieu : Lyon (site facilement accessible en transports en commun) Télétravail : 2 jours par semaine (jeudi et vendredi) Type de contrat : Nature du contrat à définir Rémunération : Jusque 55k€ selon profil et expérience Démarrage : Dès que possible (préavis de 3 mois non gérable) Expérience requise : minimum 6 ans sur de la chefferie de projet Durée : Mission longue / forte visibilité À propos du poste Nous recherchons un(e) Chef de Projet Technique pour rejoindre une équipe Backend (8 collaborateurs déjà en place) au sein d’un acteur majeur du secteur assurance – santé, prévoyance, IARD . Votre rôle sera de piloter la mise en place et le suivi de projets stratégiques autour de l’authentification et de la gestion des flux de données, tout en assurant la coordination technique et le suivi du RUN. Vos missions • Piloter la fin de la mise en place de Azure AD B2C (cloud) et généraliser l’authentification multi-applications. • Conduire la mise en place du Common Data Hub (CDH) : base de données centrale servant de “golden data” accessible via API (.NET). • Suivre et coordonner la TMA du référentiel courtier (en prod depuis février) – gestion d’incidents techniques (Java, API, flux). • Garantir la bonne gestion et intégration des flux/API/base de données. • Assurer la communication et le reporting auprès des équipes et de la direction (rédaction de comptes rendus, suivi d’avancement). Environnement technique (Stack) • Langages / frameworks : .NET, Java • Technologies : Azure AD B2C, API, bases de données relationnelles • Méthodologies : gestion de projet, suivi RUN, pilotage technique
Offre d'emploi
Chef(fe) de Projet Coordinateur(rice) - Pilotage de flux - Data
Publiée le
Azure
Databricks
Méthode Agile
14 mois
Châtillon, Île-de-France
Télétravail partiel
Contexte de la mission - Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef de Projet Coordinateur pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Expertises REQUISES - Tableaux de bord de suivi des flux - Azure - Modélisation data - Databricks - Agilité Objectifs de la mission - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion Compétences techniques requises - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Qualités humaines - Leadership collaboratif : capacité à fédérer des équipes pluridisciplinaires. - Excellente communication : vulgarisation des enjeux techniques auprès des métiers. - Rigueur et sens de l’organisation : gestion multi-projets, priorisation, autonomie et sens du service - Orientation résultats : focus sur la valeur métier et la livraison. - Curiosité et proactivité : force de proposition
Mission freelance
Data Engineer
Publiée le
Apache Spark
Data visualisation
Java
12 mois
460-500 €
Toulouse, Occitanie
Télétravail partiel
Entité : Industrie Location : Toulouse ou full-remote Date de démarrage : 17/11/2025 English possible Durée mission : 12 mois (date de fin : 09/10/2026) Mission: we are looking for a data engineer with Spark, Java, real-time processes and MongoDB skills He/She will have to help on the current project backlog ( corrections & new features ) Within a 3 people team for this domain but included in a larger team. Maintenance and evolutions of CCO projects (Big Data processing and real time processing). Project team of 2 developers and a project manager for coordination. Included in a larger team of approx. 8 to 10 peoples.
Mission freelance
POT8700 - Un Data Engineer sur Clermont-ferrand
Publiée le
Microsoft Power BI
2 mois
280-430 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-ferrand. Descriptif : Le Data Engineer développe, construit et maintient des infrastructures de données d'un point de vue système et sécurité. Il s'assure de la collecte, du stockage et de l'exploitation des flux de données répondant aux enjeux de l'entreprise. Compétences techniques : Data engineer - Confirmé - Important Connaissances BI / Data - Confirmé - Important Connaissances linguistiques : Anglais Courant (Impératif) Français Courant (Secondaire)
Offre d'emploi
Data Engineer
Publiée le
Collibra
Python
Snowflake
6 mois
Liège, Belgique
Télétravail partiel
Nous recherchons un Senior Data Engineer expérimenté pour rejoindre notre équipe Data. La personne sera responsable de la conception, du développement et de la maintenance de solutions de données robustes et scalables, tout en assurant la qualité et la gouvernance des données. Le candidat idéal maîtrise les environnements cloud, les pipelines de données et les outils de gestion des données modernes. Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables pour ingestion, transformation et intégration de données. Assurer la qualité, la sécurité et la gouvernance des données en collaboration avec les équipes Data & BI. Participer à la conception d’architectures data modernes sur Snowflake et autres plateformes cloud. Développer des solutions ETL/ELT avec Talend et automatiser les processus de traitement des données. Intégrer et orchestrer des flux de données en temps réel avec Kafka. Collaborer avec les équipes métiers pour comprendre les besoins en données et proposer des solutions adaptées. Mettre en place et suivre les métriques de performance des pipelines de données. Assurer la documentation technique et le respect des bonnes pratiques de développement. Compétences techniques requises Bases de données & Cloud : Snowflake, SQL avancé, modélisation de données, optimisation des requêtes. Gouvernance & Qualité des données : Collibra, gestion des métadonnées, data lineage. Langages de programmation : Python pour le développement de scripts ETL, automatisation et analyses. ETL / Intégration : Talend, conception et maintenance de flux ETL/ELT. Streaming & Event-driven : Kafka, gestion de flux en temps réel. Autres : Git, CI/CD, tests automatisés, bonnes pratiques de développement logiciel. Compétences comportementales Forte capacité analytique et rigueur. Autonomie et prise d’initiative sur les projets techniques. Excellente communication pour travailler avec des équipes transverses. Capacité à mentor et encadrer des profils juniors. Profil recherché Bac +5 en Informatique, Data ou équivalent. Minimum 5 ans d’expérience en Data Engineering dans des environnements complexes. Expérience avérée sur Snowflake, Talend, Kafka et Python. Bonne connaissance des processus de gouvernance et de qualité des données avec Collibra. Maîtrise des concepts d’architecture data moderne et des bonnes pratiques DevOps pour pipelines data. Télétravail : 2 jour / semaine Langues : Français, Anglais
Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)
Publiée le
Agile Scrum
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Mission freelance
Data Analyst - Power BI Montpellier
Publiée le
Microsoft Power BI
12 mois
450 €
Montpellier, Occitanie
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Analyst - Power BI" pour un client dans le secteur de l'Energie Description 🎯 Contexte de la mission Dans le cadre de la consolidation et du développement des outils de pilotage métiers , l’entreprise recherche un Data Analyst Power BI confirmé afin de garantir la performance, la fiabilité et l’évolution de ses tableaux de bord stratégiques. L’objectif : assurer la maintenance en condition opérationnelle (MCO) des rapports critiques, développer de nouveaux tableaux Power BI et contribuer à l’amélioration de la qualité des données. ⚙️ Rôle et responsabilités Intégré(e) à l’équipe Data et en lien direct avec les directions métiers, le Data Analyst aura un rôle clé dans la valorisation des données et la fiabilité des indicateurs . Vos missions principales : Assurer le MCO des tableaux Power BI critiques : supervision, rafraîchissement, vérification des sources et résolution d’anomalies. Concevoir et déployer de nouveaux tableaux de bord Power BI répondant aux besoins métiers (performance, ergonomie, fiabilité). Analyser et comprendre les besoins métiers variés, formaliser les règles de gestion et traduire les demandes en solutions concrètes. Identifier les anomalies de données et sensibiliser les métiers à la qualité et à la cohérence des informations. Collaborer avec les équipes techniques (AWS, Dataiku, Power Platform) pour améliorer les flux de données et la gouvernance . Documenter les processus, les évolutions et les incidents afin d’assurer la traçabilité et la continuité des projets. Produire les reportings d’avancement et suivre les demandes dans Jira.
Offre d'emploi
Data Engineer (Bordeaux)
Publiée le
BI
Python
Snowflake
3 mois
40k-48k €
100-370 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Data Engineer, et en coordination avec l’équipe, vos missions principales seront de : Concevoir, développer et maintenir des pipelines de données robustes et scalables (ETL / ELT) Intégrer et transformer des données issues de sources variées (APIs, bases SQL/NoSQL, fichiers, flux temps réel, etc.) Assurer la qualité, la cohérence et la fiabilité des données tout au long de la chaîne de traitement Participer à la modélisation et à l’optimisation des architectures data (Data Lake, Data Warehouse, etc.) Collaborer étroitement avec les Data Scientists, Data Analysts et les équipes métier pour répondre à leurs besoins en données Mettre en place des bonnes pratiques de développement, de versioning et d’automatisation (CI/CD, monitoring, tests, documentation) Contribuer à la sécurisation, la gouvernance et la conformité des données (RGPD, gestion des accès, traçabilité) Optimiser les performances des traitements et la consommation des ressources cloud Participer à la veille technologique et proposer des améliorations continues sur les outils et les architectures data
Mission freelance
Consultant (H/F) Senior Big Data & Cloud Architect Telecom
Publiée le
Data governance
Telecom
56 jours
Île de Clipperton, France
Télétravail partiel
Dans le cadre d’un diagnostic Data Lake et Cloud pour un grand opérateur télécom, nous recherchons un Data Architect Senior Big Data & Cloud. La mission consiste à évaluer l’architecture data existante, analyser la résilience et la performance des pipelines, identifier les points de friction, et proposer des recommandations pragmatiques. Le consultant interviendra sur l’écosystème Big Data (Hadoop, Spark, MapR, ClickHouse) et sur l’évaluation des workloads cloud (AWS, Azure, GCP). Compétences clés : Hadoop / Spark / MapR / ClickHouse (écosystèmes Big Data open source). Orchestration de pipelines : Airflow, Dagster… Logs, monitoring, optimisation de la performance. Expérience on-premise & cloud (AWS, Azure, GCP). Capacité à évaluer workloads cloud et produire une matrice de risques . Connaissances sécurité data (contrôles d’accès, RGPD, loi marocaine 09-08 un plus).
Offre d'emploi
Data Scientist
Publiée le
Python
6 mois
Liège, Belgique
En tant que Data Scientist Senior , vous participerez à des projets complexes de traitement et d’analyse de données afin de générer des insights exploitables. Vous travaillerez en étroite collaboration avec les équipes métiers, IT et Data Engineering pour construire des modèles prédictifs et des solutions analytiques robustes. Responsabilités principales Concevoir, développer et déployer des modèles de machine learning pour résoudre des problématiques business complexes. Manipuler, transformer et analyser de grands volumes de données provenant de différentes sources (bases relationnelles, Snowflake, APIs…). Garantir la qualité et la cohérence des données en collaboration avec les équipes Data Governance et en utilisant des outils comme Collibra . Développer et maintenir des pipelines ETL et scripts Python pour automatiser le traitement des données. Présenter les résultats et insights de manière claire aux parties prenantes, en français et en anglais. Encadrer et partager vos connaissances avec des profils moins expérimentés (mentorat). Contribuer à la définition des bonnes pratiques Data Science et à l’amélioration continue des processus analytiques. Profil recherché Diplôme supérieur en Statistiques, Informatique, Mathématiques, Data Science ou domaine similaire. Expérience significative (minimum 5 ans) en Data Science, idéalement dans un environnement international. Maîtrise avancée de Python pour le traitement de données et le développement de modèles ML (pandas, scikit-learn, TensorFlow, etc.). Maîtrise de SQL et expérience sur Snowflake pour l’interrogation et l’exploitation des données. Expérience avec des outils de Data Governance , en particulier Collibra . Solide compréhension des statistiques, de l’algorithmique et des méthodes de machine learning. Capacité à travailler en autonomie et à gérer des projets complexes. Excellente communication écrite et orale en français et anglais . Compétences appréciées Expérience avec des outils de visualisation (Tableau, Power BI, Plotly…). Connaissance des bonnes pratiques DevOps/DataOps appliquées à la Data Science. Expérience avec des environnements cloud (AWS, Azure, GCP). Ce que nous offrons Un environnement stimulant et innovant avec des projets à fort impact. Opportunités d’évolution et formation continue. Flexibilité et équilibre vie professionnelle/vie personnelle. Travail dans une équipe dynamique et collaborative.
Mission freelance
230795/Data OPS Niort Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana)
Publiée le
Control-M
Dynatrace
3 mois
320-350 £GB
Niort, Nouvelle-Aquitaine
Data Ops Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python Contexte : Mettre en place des outils et des méthodes d'industrialisation et d'automatisation de l’exploitation informatique dans des environnements Data (orchestration des données). • Définir et mettre en place des processus pour une meilleure collaboration/ coordination entre les équipes de développement et d'exploitation. • Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques d’infrastructure as code dans le cycle d'orchestration des données. • Intégrer et maintenir les CI/CD (intégration continue et livraison continue), les tests automatisés pour fluidifier les pipelines de développement et de déploiement. • Configurer les Runners Gitlab pour les différents projets afin d’assurer le déploiement continue. • Assurer la gestion des versions des configurations afin de reproduire facilement les déploiements. • Assurer le monitoring des assets en collaboration avec l'équipe d'exploitation. • Concevoir et maintenir des services d'assistance FINOPS (observabilité). • Fournir une formation et un support aux membres de l'équipe d'exploitation sur les bonnes pratiques, les outils et les technologies utilisées. • Rédiger et maintenir une documentation précise et à jour pour les configurations, les processus et les workflows des solutions mises en place. Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python
Offre d'emploi
Expert Cybersécurité Data N3 Varonis / Purview
Publiée le
Microsoft Purview
55k-68k €
Île-de-France, France
Télétravail partiel
Nous sommes à la recherche d'un Expert Cybersécurité Purview / Varonis C'est une prestation dans le but de proposer des services de sécurité autour de la donnée. La mission sera en charge du maintien en condition opérationnelle et du support niveau 3 de la plateforme Varonis/purview et des services sur un périmètre de responsabilité international. Mise en œuvre, maintient et suivi du déploiement de solutions de sécurité autour des données non structurées de la banque à l'aide des produits VARONIS et Microsoft PURVIEW.
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
Publiée le
Azure
BI
Cloud
24 mois
200-400 €
Paris, France
Télétravail partiel
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Mission freelance
Ingénieur DATA – Coordination & Support Technique IA Industrielle
Publiée le
Data analysis
IA
1 an
500 €
Belgique
Télétravail partiel
Assurer la coordination et le support technique Data & IA pour l’industrialisation et l’optimisation des flux de données. L’objectif est de structurer, automatiser et rendre exploitables les données industrielles , tout en développant les premiers use cases IA opérationnels pour la ligne de production. 1. Coordination Data & IA Piloter et structurer l’automatisation de l’alimentation de la plateforme 3DEXpérience depuis Publisher , en exploitant des techniques d’IA (machine learning, NLP…). Documenter et suivre les scripts et workflows de migration automatisés . Proposer les premiers use cases DATA & IA pour la production. Appuyer l’équipe UNS sur la structuration des données industrielles pour usages IA futurs. Veille technologique et reporting sur les sujets Data & IA. 2. Support technique et développement Implémenter et tester les scripts et workflows de migration de données (DataPrep, ETL, IA) sur données simulées ou réelles. Concevoir et tester des use cases IA “production ready” : supervision process, maintenance prédictive, contrôle qualité automatique. Structurer les datasets pour l’entraînement IA : normalisation, règles qualité, automatisation des flux. Assurer documentation technique et transfert de compétences aux équipes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Quelle est la meilleure RC Pro et mutuelle pour un auto-entrepreneur ?
- Facturation électronique 01 : Rappel du calendrier !
- Banque et cotisation
- Courtiers ou mutuelles TNS à recommander
- Freelance et Habilitation Confidentiel défense
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
2593 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois