L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 005 résultats.
Mission freelance
Architect T echnique DATA / TALEND / ou Dtastage / Change data capture 550e / j
BI SOLUTIONS
Publiée le
Architecture
Talend
2 ans
400-550 €
Île-de-France, France
Architect DATA / Change data capture / TALEND OU DATASTAGE / Datalake 550 e / j Maitrisant les solutions de cdc : type IBM IDR, Striim, Qlik Attunity/Replicate, Debezium, …, mais aussi des solutions d’ETL (Talend, Datastage) ou bien Iceberg, Delta Lake pour l’exposition, …itecte très technique qui a une expérience en outil de change data capture -> création datalake Maitrisant les outils change data capture , maitrisant l'architecture data Construire une architecture Bonne maitrise de talend ou datastatage Bonne presentation , bonne capacité d'adaptation . Architecte de 5 à 10 ans xp Autonome Anglais mandatory 550 e
Offre d'emploi
📩 Data Engineer / DevOps – Data Platform
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Mission freelance
AMOA IA
Codezys
Publiée le
Data science
Formation
IA Générative
12 mois
Nantes, Pays de la Loire
Contexte de la mission Ce profil senior jouera un rôle stratégique et opérationnel en tant que pont entre l’ Intelligence Artificielle (IA) Fet et les Directions métiers , afin d’assurer une coordination efficace avec les Services Support concernés. Détection et Cadrage Accélérer l’identification des besoins métiers et repérer les opportunités de projets IA à forte valeur ajoutée, en vue de les relayer à l’ IA Factory . Acculturation Sensibiliser et former les Chefs de Projet (CP) et Product Owners (PO) des directions opérationnelles aux enjeux et aux capacités de l’IA. Accompagnement Opérationnel Soutenir et sécuriser le développement ainsi que le déploiement des solutions IA au sein des équipes concernées. Levée de Freins Identifier les obstacles à l’appropriation des outils IA par les utilisateurs finaux et proposer des plans d’action correctifs adaptés. Synergies et Collaboration Favoriser le développement de synergies efficaces entre l’ IA Factory et les directions opérationnelles afin de maximiser la performance collective. Production de Documents Rédiger des études d’opportunités, élaborer des schémas fonctionnels, concevoir des solutions technologiques, rédiger des cahiers des charges, et préparer des comptes rendus synthétiques.
Mission freelance
BA Référentiel Data/Asset Management
Cherry Pick
Publiée le
Finance
12 mois
570-620 €
Paris, France
Dans le cadre du développement de ses systèmes de gestion, le client doit recourir à une prestation externe pour fournir assistance au support des outils de reporting et à la conduite des projets liés à la mise à disposition des données produits, via tous types de supports (reportings, interfaces web, fichiers, emails…) OBJET DE LA PRESTATION Les principaux objectifs de la prestation sont les suivants : Description des processus métier, les challenger, et proposition d’améliorations/simplifications et implantation dans les outils correspondants. Contribution à la conception de l’architecture des systèmes d’information et propositions de solutions partagées. Rédaction des use cases en fonction des besoins clients. Rédaction des études de faisabilité, production des spécifications fonctionnelles, évaluation des travaux à prévoir et validation des développements. Formalisation et explication des besoins fonctionnels en tâches et améliorations techniques en vue du développement par la MOE. Gestion de la conduite de projet (proposer les plannings des projets, des lots éventuels et des échéances, organiser et animer les projets). Participation active aux réunions, au reporting d’activité et comités projets. Garantie du bon fonctionnement au quotidien de la plateforme et du support niveau 2
Offre d'emploi
Data Analyst
ONSPARK
Publiée le
Microsoft Power BI
Python
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Analyst pour accompagner nos clients grands comptes. Responsabilités Extraire, nettoyer et analyser des données issues de sources variées Produire des rapports et tableaux de bord à destination des équipes métier Identifier des tendances et formuler des recommandations Collaborer avec les Data Engineers pour l'accès aux données Contribuer à l'amélioration de la qualité des données
Mission freelance
Data Analyst
MLMCONSEIL
Publiée le
Apache Spark
Cloudera
Hadoop
1 an
100-460 €
Lille, Hauts-de-France
Profil Data Analyst pour un projet logistique, chargé de réaliser les spécifications et analyses de données. Exploitation et transformation des données avec Talend dans un environnement Big Data. Maîtrise des technologies Hadoop, Spark et Cloudera pour le traitement volumineux de données. Création de tableaux de bord et visualisations avancées avec Power BI pour le suivi opérationnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Offre d'emploi
Stream Lead Intégration & Data Migration IT
VISIAN
Publiée le
Cloud
Streamlit
1 an
Île-de-France, France
Contexte Nous recherchons pour la Direction des Services d’Information un Stream Lead Intégration & Data Migration IT. Missions Coordination de la conception des interfaces : coordonner le recueil des exigences fonctionnelles et techniques pour l'interfaçage de la plateforme avec les applications Legacy du SI. Pilotage de l'implémentation : assurer le suivi de bout en bout de la réalisation des interfaces et des flux de données, en gérant les interdépendances avec les autres streams du programme. Pilotage des partenaires : diriger les activités de l’éditeur externe pour garantir le respect des délais et de la qualité des livrables techniques.
Offre d'emploi
Data Engineer IA (H/F)
STORM GROUP
Publiée le
IA
Large Language Model (LLM)
3 ans
48k-58k €
450-550 €
Île-de-France, France
La mission principale du profil retenu sera • Concevoir et développer des solutions de traitement de données complexes • Implémenter solutions exploitant des modèles d'IA générative • Participer à la mise en place de prompts et de RAG • Collaborer étroitement avec les métiers et les autres membres de l’équipe et d’autres DSI afin garantir l'efficacité et la fiabilité des solutions mises en œuvre. • Démontrer une expérience avérée dans le traitement de données non structurées ainsi que la maitrise de traitement de fichiers de différents types tels que Word, PDF, PowerPoint, CSV
Mission freelance
Experts Workday - Intégration / Data Migration / CP
CONCRETIO SERVICES
Publiée le
Reporting
Workday
12 mois
600-1 100 €
Île-de-France, France
Nous recrutons pour le compte de notre client sur trois expertises complémentaires , et cherchons des profils qui en maîtrisent au moins une à un niveau avancé — voire qui combinent plusieurs de ces dimensions. Intégration Workday Vous avez conçu et déployé des intégrations complexes sur Workday — Studio, EIB, Workday Web Services, API REST/SOAP. Vous savez travailler en lien avec des équipes techniques et fonctionnelles, documenter vos architectures et anticiper les risques d'interface. Une expérience sur les modules HCM, Finance ou Payroll est un vrai atout. Reprise de données / Data Migration Vous avez piloté ou exécuté des chantiers de migration de données RH ou financières vers Workday — cartographie des données sources, règles de transformation, chargement via iLoad ou outils tiers, recette et validation. Vous êtes à l'aise avec la complexité des données héritées et vous savez travailler avec les métiers pour arbitrer et qualifier. Chefferie de projet Workday Vous avez déjà piloté des projets Workday en environnement client final, avec une vraie capacité à coordonner des équipes mixtes (IT, RH, Finance, intégrateur externe). Vous maîtrisez les cycles de déploiement Workday, la gestion des jalons, des risques et des parties prenantes, et vous savez maintenir le cap sans perdre le lien terrain.
Offre d'emploi
Data Analyst SAS - Anglais courant
Synchrone recrutement
Publiée le
Dataiku
Dremio
SAS
40k-60k €
Paris, France
L'équipe est chargée du pilotage mensuel du risque via la mise à jour du datamart risque et des reportings associés. Pour cela, un RUN mensuel, actuellement composé de programmes SAS, devra perdurer en parallèle des développements induits par les nouveaux usages data (nouvelles expositions de données, nouveaux outils de préparation tels que DREMIO-DATAIKU, et utilisation de Power BI Report Server). Cette mission a pour objectif : · Développer des flux Dataiku et des rapports Power BI afin de contribuer au pilotage mensuel du risque. · Assurer le transfert et la réécriture des programmes SAS existants vers Dataiku, en tenant compte de la complexité de certains codes et des logiques métier sous-jacentes. · Documenter la construction et le fonctionnement des mises en place pour garantir la pérennité et la maintenabilité des solutions. L’équipe tient à cœur de développer des suivis automatisés et optimisés. Une intégration au RUN mensuel ainsi qu’une participation aux demandes d’évolutions sur des suivis déjà existants pourront également être réalisées, dans le but de s’imprégner du fonctionnement global de l’équipe. Anglais courant requis ! Prestations demandées : Comprendre le fonctionnement actuel du datamart risque composé de programmes SAS. Dupliquer les RUN actuels sur les nouveaux outils DREMIO et DATAIKU Mise en place d’un rapport Power BI version report server permettant le pilotage mensuel Participation au double run mensuel
Mission freelance
Expert Looker Core (BI & Big Data)
Nicholson SAS
Publiée le
Big Data
BigQuery
Google Cloud Platform (GCP)
4 mois
700-900 €
Paris, France
Nous recherchons un Expert Looker pour accompagner l'un de nos clients majeurs dans le secteur du transport aérien, dans le cadre d'une étude stratégique sur ses outils de Dataviz.📋 Détails de la mission Démarrage : 04/05/2026 Durée : Jusqu'au 31/08/2026 (Visibilité sur Octobre 2026) Localisation : Paris ou Toulouse (Rythme hybride selon politique site) Expertise attendue : +5 ans d’expérience 🎯 Enjeux et Missions Au sein de la plateforme Data & AI Technology , vous interviendrez sur l'évaluation de Looker comme futur standard de Dataviz du Groupe (contexte de migration Cloud). Vos responsabilités : Accompagnement de POCs : Développement et support aux métiers dans la réalisation de leurs preuves de concept. Expertise Conseil : Apporter un regard critique sur l'architecture, la sécurité et l'optimisation FinOps . Formation & Pédagogie : Acculturation des utilisateurs métiers et échanges techniques avec les équipes IT (Ops, Architectes). Évaluation stratégique : Analyser la capacité de l'outil à répondre aux besoins d'analyses Ad-hoc, aux enjeux d'IA (Conversational Analytics) et au remplacement de solutions existantes (SAP BO, Spotfire). 🛠️ Compétences Requises Looker Core (Indispensable) : Maîtrise parfaite de l'outil (Note : Looker Studio est hors scope). Ecosystème GCP : Excellente maîtrise de BigQuery et du SQL . Culture Data : Compréhension des enjeux de migration "Data Move To Cloud". Soft Skills : Excellent relationnel, capacité à vulgariser des sujets complexes et pédagogie. Langues : Anglais courant (contexte international). Bonus : Une maîtrise de Power BI est un plus apprécié. 💰 Conditions financières TJM Paris : 900 € (selon profil) TJM Toulouse : 700 € (selon profil)
Offre d'emploi
Alternance - Data analyst & Relations Sociales F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Microsoft Excel
Magny-Vernois, Bourgogne-Franche-Comté
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Senior Data Analyst Snowflake H/F
JEMS
Publiée le
40k-50k €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un(e) Data Analyst Senior spécialisé(e) sur Snowflake capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Missions : • Être responsable de la couche analytique des métriques End-to-End : calculer et suivre les KPI incluant le temps de cycle, le lead time, le débit (throughput) et les encours (work-in-progress) à travers les étapes de production, • Construire des modèles de données granulaires pour un suivi complet des lots, en enrichissant la visibilité avec un niveau de détail par étape et une cartographie des dépendances entre tâches, • Mettre en place un contrôle statistique des processus appliqué aux métriques de flux : détecter les dérives des KPI par rapport aux limites de variabilité et développer des modèles prédictifs pour optimiser les temps de cycle, • Concevoir et maintenir des dashboards de suivi des flux ainsi que des visualisations d'analyse des goulets d'étranglement pour les équipes de production et les relecteurs de dossiers de lots, • Collaborer avec les data engineers pour intégrer les données SAP et les systèmes MES, en garantissant la qualité des données pour le suivi des lots et l'analyse des flux, • Travailler avec les équipes site pour cartographier finement les tâches de production et valider les dépendances, afin de soutenir la transition vers une séquence de lots optimisée, • Contribuer à l'intégration future de capacités de process mining et de workflows agentiques pour un ordonnancement intelligent des files de production. Référence de l'offre : czadsyjaq6
Offre d'emploi
Data Steward
ONSPARK
Publiée le
RGPD
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Steward pour accompagner nos clients grands comptes. Vous interviendrez dans des environnements où la qualité, la traçabilité et la conformité des données sont des enjeux majeurs, en lien avec les équipes Data et métier. Responsabilités Définir et appliquer les règles de gouvernance des données Maintenir le dictionnaire de données et les référentiels Assurer la qualité, la traçabilité et la conformité des données (RGPD) Sensibiliser et accompagner les équipes métier sur les bonnes pratiques Collaborer avec les Data Engineers et Data Architects
Offre d'emploi
Data Engineer H/F
JEMS
Publiée le
45k-55k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 8vpph62lhn
Offre d'emploi
Data Engineer TERADATA ET BIGDATA
WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)
12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3005 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois