L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 728 résultats.
Mission freelance
Data Engineer-Scientist AWS
INSYCO
Publiée le
AWS Cloud
Gitlab
Large Language Model (LLM)
3 ans
500-550 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Data Engineer-Scientist AWS. Nous étudions prioritairement les candidatures adressées par mail à freelance à insyco . fr avec : · Un argumentaire écrit répondant de façon ciblée au besoin ci-dessous · Un CV à jour au format Word · Une date de disponibilité · Un tarif journalier · Merci d’indiquer la référence MDE/DATA/5161 dans l'objet de votre mail Vos responsabilités · Contribuer aux phases d’idéation et de définition de nouveaux concepts innovants, notamment en évaluant leur faisabilité technique · Modéliser et développer des Proofs of Concept (POC) et des prototypes pour matérialiser ces concepts et les tester auprès d’utilisateurs finaux · Prendre une part active aux choix techniques et technologiques des projets innovation de son portefeuille · Évaluer les solutions technologiques proposées par des acteurs externes (startups, ...) qui permettraient de réaliser les projets en Open Innovation · Veiller à ce que les prototypes et projets réalisés puissent être transmis à d’autres équipes de la DSI et industrialisés avec un effort minimum · S’assurer que les projets innovation respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI interne · Effectuer les ateliers de passation vers d’autres équipes, réaliser le support le cas échéant · Effectuer une veille sur les nouvelles technologies et solutions logicielles pertinentes dans le cadre des priorités du Lab · Participer à la définition et à l’amélioration des processus de l’équipe Lab · Solide culture DevOps : CI/CD, conteneurisation (Docker, Kubernetes, Gitlab) · Bases solides en data engineering (Python / SQL) & cloud PaaS/IaaS (AWS, API Gateway, Terraform) · Expériences en data processing / engineering (Panda, Pyspark, multi-threading, AWS batch) · Curiosité et pratique des outils d’IA générative et d’automatisation (ex. GitHub Copilot, Claude Code, LLM, NLP, AWS Bedrock) pour identifier les véritables opportunités d’amélioration · Expérience de travail en méthodes agiles (Scrum, SaFe, Kanban)
Mission freelance
Data Center Manager (H/F)
Insitoo Freelances
Publiée le
Plan de reprise d'activité (PRA)
12 mois
600-836 €
Bruxelles, Bruxelles-Capitale, Belgique
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Center Manager (H/F) à Bruxelles, Belgique. Modalités : Temps plein Durée : 7 mois Contexte : Le client gère deux data centers physiques et des serveurs dans des clouds privés. Dans ce cadre, une première analyse pour la mise en place d’un DRP, puis d’un BCP, doit être effectuée. Responsabilités : Analyser, dans un premier temps, sur la base de trois applications critiques déjà identifiées, le niveau actuel de l’architecture globale du data center, de la couche physique jusqu’à la couche applicative Identifier les éléments (logiciels et documentaires) existants utiles, ainsi que les interlocuteurs Sur cette base, élaborer une trajectoire réaliste, par étapes, en vue d’atteindre le RTO et le RPO pour chaque application identifiée lors d’une analyse menée en interne Mise en service progressive de services sur un second data center (DC2), ainsi que de l’évolution vers une architecture multidatacentres Identifier la meilleure manière de positionner un cloud privé comme solution complémentaire de reprise et de continuité, en articulation avec les infrastructures on-premise
Mission freelance
Data Engineer Confirmé – Environnement industriel (H/F)
Pickmeup
Publiée le
Dataiku
Numpy
Pandas
2 ans
350-370 €
Saint-Paul-Trois-Châteaux, Auvergne-Rhône-Alpes
Missions principalesConception et architecture des solutions data Concevoir et développer des pipelines de données robustes pour des environnements industriels. Cartographier et documenter les sources de données . Concevoir des solutions permettant le traitement de volumes importants de données . Définir la structure des bases de données et des métadonnées . Participer à la mise en place et à l’évolution d’un Data Lake . Intégration et gestion des données Collecter et intégrer des données provenant de sources multiples (applications, capteurs industriels, systèmes externes) . Garantir la qualité, la sécurité et la fiabilité des données . Mettre en place des mécanismes de contrôle, nettoyage et validation des données . Assurer la supervision et la maintenance des pipelines de données en production. Collaboration et animation Collaborer avec les équipes métier et IT afin de comprendre les besoins en données. Participer à l’animation de la communauté technique autour des sujets data . Contribuer à la veille technologique sur les solutions data et proposer des améliorations. Livrables attendus Dossier de spécification et d’architecture des solutions data mises en œuvre. Catalogues et cartographie des données . Mise en place d’un Data Lake adapté aux besoins métier . Documentation et outils permettant de garantir la qualité des données .
Mission freelance
Proxy Product Owner Data Freelance
SURICATE IT
Publiée le
Dataiku
Finance
P2P
3 ans
Puteaux, Île-de-France
Proxy Product Owner Data Freelance – Corporate Finance Transformation 📍 Informations mission 👤 Expérience : 10 ans MINIMUM requis 🚀 Démarrage : ASAP ⏳ Durée : 3 ans 🏠 Télétravail : 1 jour par semaine (non négociable) 🌍 Anglais : bon niveau requis 💰 TJM : selon profil 🌍 Localisation : Puteaux Nous recherchons un Proxy Product Owner Data pour accompagner le programme de transformation Corporate Finance au sein du Group Data Office . Le rôle consiste à garantir que les initiatives de transformation Finance intégrant une dimension data sont correctement identifiées, structurées et alignées avec les standards data du groupe , tout en assurant une delivery efficace . Le poste agit comme un pont entre les équipes Finance, IT et Data afin de permettre une transformation data-driven des processus Finance. 🎯 Missions principales Identifier les initiatives Finance ayant un impact data Traduire les besoins métier Finance en exigences data et techniques Garantir l’alignement avec les standards et patterns d’architecture du Group Data Office Contribuer à l’ automatisation des processus Finance Coordonner les équipes Finance, IT et Data pour assurer la delivery Assurer le suivi des projets, reporting et gestion des parties prenantes Les initiatives portent notamment sur : P2P (Procure-to-Pay) O2C (Order-to-Cash) Automatisation des processus Finance Use cases data et analytics 🌍 Environnement Rôle stratégique à l’interface entre Corporate Finance et Data , contribuant à accélérer la transformation data-driven des fonctions Finance dans un environnement international.
Offre d'emploi
Data Engineer Kubernetes
KLETA
Publiée le
Helm
Kubernetes
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
fullstack developer (data experience)
Hanson Regan Limited
Publiée le
Angular
Java
Python
12 mois
400-570 €
Paris, France
Hanson Regan recherche un développeur full stack pour une mission de 12 mois à Paaris. Projet axé sur les données et la visualisation de données. Nous recherchons un candidat justifiant d'une expérience professionnelle de plus de 4 ans pour une mission de longue durée à Paris. Ce poste s'inscrit dans le cadre d'un projet d'envergure et offre l'opportunité de collaborer au sein d'une équipe dynamique et reconnue. Compétences requises : Solide expérience en Python pour le développement backend et le scripting. Bonne connaissance de Java avec le framework Spring (Spring Boot de préférence). Expérience en Scala pour le développement d'applications évolutives et performantes. Maîtrise d'Angular 16+ pour le développement frontend moderne. Merci de nous contacter au plus vite si vous êtes intéressé ou si vous connaissez une personne correspondant à ce profil
Offre d'emploi
Directeur de mission (H/F)
SMARTPOINT
Publiée le
AWS Cloud
Cognos
Oracle
6 mois
85k-90k €
700-800 €
Île-de-France, France
Dans le cadre du renforcement de sa gouvernance data et de l’optimisation de ses plateformes Cloud, notre client recherche un Lead DataOps & Architecte Data/Cloud AWS . Vous interviendrez en support direct du responsable de la cellule DataOps pour structurer, piloter et faire évoluer les architectures data, tout en garantissant leur performance, leur conformité et leur optimisation des coûts (FinOps). Vos missions Assister le responsable dans l’animation et le pilotage de l’équipe DataOps Réaliser le cadrage et les études des nouveaux projets data Définir et promouvoir les patterns d’architecture Data & Cloud Concevoir des architectures robustes et scalables sur AWS Piloter l’exploitation, les migrations techniques et les transformations de plateformes Mettre en œuvre et animer la démarche FinOps (optimisation des coûts, de la conformité logicielle et de la performance du socle technique) Assurer la conformité logicielle et technique du socle Conduire des audits techniques et de performance Accompagner les équipes sur les bonnes pratiques DataOps et Cloud Livrables attendus Dossiers d’études (8 à 10 par an) Comptes-rendus d’audit (6 à 8 par an) Pilotage de migrations majeures (3 à 5 par an) Bilans de conformité (2/an) Bilans d’optimisation des coûts / FinOps (2/an)
Offre d'emploi
Data Engineer Streaming
KLETA
Publiée le
Apache Kafka
Apache Spark
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Streaming / Real-Time pour concevoir, optimiser et industrialiser des plateformes de traitement de données en temps réel. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines événementiels, optimisation des traitements stream, passage vers des architectures plus scalables et résilientes) et guiderez leur mise en œuvre avec Kafka, Flink, Spark Streaming ou équivalents. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation en temps réel, de l’amélioration des performances et de l’intégration de mécanismes de tolérance aux pannes et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de streaming et d’event-driven architecture. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
Développeur Bases de Données PostgreSQL (H/F)
SPI INFORMATIQUE
Publiée le
PostgreSQL
Python
3 mois
240-380 €
Deux-Sèvres, France
Vos missions Intégré(e) à une équipe technique, vous serez amené(e) à : Monter en compétence sur l’environnement existant, notamment Greenplum Analyser les besoins fonctionnels et techniques exprimés par les utilisateurs Concevoir des solutions orientées bases de données Réaliser les développements associés : traitements PL/pgSQL scripts Python orientés data scripts Shell (si nécessaire) Effectuer les phases de tests, d’optimisation et de livraison Garantir la qualité, la performance et la maintenabilité des développements Participer aux bonnes pratiques de l’équipe : revues de code échanges techniques amélioration continue
Mission freelance
Consultant Jira H/F
HAYS France
Publiée le
Agile Scrum
Cloud
Data Center
1 an
Île-de-France, France
Dans le cadre d’une transformation globale de l’ingénierie , un grand groupe industriel international déploie des Environnements d’Ingénierie standardisés , combinant processus, outils et infrastructures fournis sous forme de services mutualisés. Jira constitue la solution centrale de gestion des projets, des activités d’ingénierie et des backlogs Agile au sein de ces environnements. Il est fortement intégré à un écosystème d’outils de développement, d’intégration continue, de gestion de configuration et de validation (outils de gestion du code source, solutions IVV, reporting avancé, checklists opérationnelles, etc.). Cependant, la coexistence de multiples instances Jira hétérogènes au sein du groupe génère : des écarts de pratiques et de configurations, des niveaux de service variables, une complexité accrue de maintenance, des surcoûts et une dette technique significative. L’objectif de la mission est d’accompagner la migration progressive des projets vers une solution Jira cible standardisée (JFE – Jira For Engineers) , afin de garantir cohérence, performance, maintenabilité et une expérience utilisateur unifiée pour l’ensemble des entités. 2. Objectifs de la mission Le prestataire aura pour objectifs de : Définir et piloter une stratégie industrielle de migration Jira vers la solution cible JFE Accompagner les projets dans leur transition tout en garantissant la continuité opérationnelle Sécuriser les migrations de données et la conformité fonctionnelle des environnements Favoriser l’adoption des standards JFE via une conduite du changement structurée Contribuer à la standardisation durable des pratiques de gestion de projet et d’ingénierie 3. Périmètre des prestations3.1 Construction de l’offre de service « Migration Jira vers JFE » Définition d’une offre de migration clé en main Formalisation des processus de migration, jalons et responsabilités Définition de scénarios de migration selon la taille et la complexité des projets Définition des niveaux de service (support, accompagnement, expertise) 3.2 Stratégie, gouvernance et planification Définition de la stratégie globale de migration alignée sur les standards JFE Identification des prérequis techniques, fonctionnels et organisationnels Qualification de l’éligibilité des projets Planification et orchestration des vagues de migration (petits, moyens, grands projets) Coordination des parties prenantes (équipes projets, support ingénierie, administrateurs Jira, responsables outils) Définition des critères de succès, indicateurs de performance et conditions d’acceptation 3.3 Exécution des migrations Jira Réalisation des migrations de données Jira : tickets (issues), historiques et workflows, liens et dépendances, pièces jointes et commentaires Garantie de l’intégrité des données, de la traçabilité et de la continuité fonctionnelle Réalisation de migrations à blanc (dry runs) et validation sur projets pilotes Mise en œuvre de plans de gestion des risques et procédures de retour arrière (rollback) Validation fonctionnelle et technique post-migration 3.4 Support, adoption et conduite du changement Support technique avant, pendant et après les migrations Accompagnement des équipes projets dans l’adoption des pratiques JFE Production des livrables suivants : documentation fonctionnelle et technique, guides utilisateurs et administrateurs, playbooks de migration Contribution à l’onboarding des utilisateurs et au transfert de compétences Accompagnement à l’exploitation des outils de reporting et de pilotage de la performance 4. Livrables attendus Stratégie globale de migration Jira → JFE Dossiers de migration par projet Playbooks et guides méthodologiques Tableaux de bord de pilotage et indicateurs de réussite Documentation d’exploitation et de support Dossier de transfert de compétences
Offre d'emploi
Développeur informatique ETL - fonctionnel - BI H/F
HAYS France
Publiée le
Mulhouse, Grand Est
Vos missions :* Développement & automatisation : Développer des solutions assurant la transformation de données brutes en informations fiables et exploitables. Automatiser les processus fonctionnels en lien avec les équipes métiers. Maintenir, optimiser et faire évoluer les interfaces ETL existantes. * Modernisation & intégration : Participer à la migration et à la modernisation des programmes historiques vers des versions web. Contribuer à la mise en place, la maintenance et l'évolution des reportings et dashboards Power BI. Surveiller, diagnostiquer et dépanner les traitements ETL pour garantir leur bon fonctionnement.
Mission freelance
Data ingénieur Databricks & Power BI Full remote ASAP
WorldWide People
Publiée le
Databricks
6 mois
320-340 €
France
Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL
Mission freelance
Chef de projet Innovation IA
Inventiv IT
Publiée le
Data science
Data visualisation
IA
6 mois
450-550 €
Île-de-France, France
Missions du Chef de projet Innovation IA : - Intervention sur l’ensemble du cycle de vie des projets : collecte et étude du besoin, cadrage, ateliers, bêta-tests, prototypage, etc. - Pilotage des projets : suivi de l’avancement des projets, des tâches à réaliser, coordination des équipes internes et externes. - Réalisation de tests IA : PoC et tests de solutions internes et externes d'IA pour répondre aux impératifs du développement de l’IA du quotidien et des supports - Animation des réunions projets : gestion et animation des réunions de suivi projets, favorisant la coordination et la communication entre les équipes et les décideurs. - Interface métier : être en mesure de coordonner l’intégralité des actions à mener pour assurer la réussite du projet, dans la mesure où elles concernent plusieurs directions ou département - Suivi des indicateurs de performance et amélioration continue : suivi et production de bilans récapitulatifs sur les statistiques et l'adoption des solutions, analyse des KPIs fonctionnels et techniques, fournitures d’éléments et d’information au responsable pour arbitrage des mesures à mettre en œuvre le cas échéant - Intégration des actions nécessaires de formation, d’acculturation et de communication dans le dispositif FAC de CorT-ex. Ex : production de tutos vidéo ou écrits pour la prise en main d’outils, de fonctionnalités ou de technologies, proposition de plan d’acculturation et de communication pour répondre aux enjeux des phases de tests et de pré-déploiement - Rencontres & partenariats startups : à la demande du responsable, prise en charge et organisation du dialogue qui pourrait s’avérait pertinent / productif avec des partenaires publics ou privés, internes comme externes : startups, éditeurs de solutions IA, Médias Francophones Public, Union Européenne de Radiotélédiffusion, grands groupes, laboratoires de recherche et monde de l’enseignement. Exemples de livrables Les livrables attendus dans le cadre du présent marché spécifique sont par exemple : · Indicateurs de suivi projet pour tous les sujets engagés · Supports de présentation des projets · Analyse du besoin / comptes-rendus de réunion · Supports de communication
Mission freelance
IT Data & Integration Manager
EBMC
Publiée le
Google Cloud Platform (GCP)
6 mois
400-700 €
Paris, France
Dans le cadre de l’implémentation d’une solution d’Integrated Business Planning (IBP), nous recherchons un IT Data & Integration Manager afin de piloter le stream Data & Intégration au sein d’un programme de transformation à forte dimension métier. Le consultant interviendra dans un contexte complexe impliquant plusieurs systèmes (ERP, outils de planification, plateformes data) et une solution IBP cible, avec un rôle clé dans la définition, la coordination et la mise en œuvre des flux de données. Il sera responsable de la stratégie de data sourcing, des choix d’ingestion, de l’alignement entre besoins fonctionnels et contraintes techniques, ainsi que de la qualité et de la robustesse des intégrations. Le rôle combine pilotage transverse et implication opérationnelle, avec une responsabilité directe sur la production des spécifications fonctionnelles (API, flux fichiers) et la supervision des équipes data et intégration.
Mission freelance
Data engineer GCP
ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)
1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Airflow / Composer
Pickmeup
Publiée le
Apache Airflow
BigQuery
Composer
3 mois
550-700 €
Paris, France
Un client migre sa dataplateforme legacy vers un socle full GCP. L'architecture et le plan sont validés. On recherche un experts polyvalents, moteurs de la migration, pas des exécutants. Vous portez plus spécifiquement l'orchestration du projet. Contexte : Vous rejoignez le pôle plateforme data (5 pôles au total) en binôme avec un autre Data Engineer GCP expert. Vous êtes tous les deux capables de tout couvrir, vous tirez l'équipe, vous posez les standards. Missions - Piloter la migration de l'orchestration vers Cloud Composer 2. - Nettoyer, rationaliser, porter les DAG existants, industrialiser les standards (CI/CD, tests, observabilité). - Orchestrer le cut-over legacy → cible sans double run. - Contribuer à la migration des pipelines BigQuery et à l'IaC Terraform du socle. - Transmettre à l'équipe interne au fil de l'eau. Stack (maîtrise attendue sur l'ensemble) Airflow 2.x, Cloud Composer 2, Python, BigQuery, Terraform, GCS, IAM GCP, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5728 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois