L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 815 résultats.
Mission freelance
Data Engineer Senior - Data Warehouse
Publiée le
Audit
Azure
Azure Data Factory
6 mois
600-680 €
Île-de-France, France
Télétravail partiel
Dans un contexte de transformation, la fiabilité de la donnée est devenue un enjeu critique pour le pilotage financier et opérationnel. Contexte & Enjeux Un socle de Data Warehouse a été initié suite à la refonte du SI, mais celui-ci reste aujourd’hui : incomplet, instable (bugs, latences importantes), avec des problématiques de qualité et de disponibilité de la donnée. Le reporting Power BI est géré en interne. 👉 La mission ne concerne pas la data visualisation , mais bien la construction d’un Data Warehouse robuste, industrialisé et exploitable . Nous recherchons un Data Engineer senior / consultant expérimenté capable de reprendre l’existant, de comprendre les enjeux métiers (notamment contrôle de gestion) et de livrer un socle data fiable dans des délais courts. Missions1. Audit & Diagnostic Analyse de l’existant (modèle de données, flux, performances, qualité) Identification des causes de lenteur, bugs et données manquantes Évaluation de la cohérence entre besoins métiers et implémentation technique 2. Modélisation & Refonte du Data Warehouse Reprise et optimisation de la modélisation DWH Structuration d’un réceptacle de données cohérent et évolutif Intégration des flux issus des nouveaux outils : Cegid XRP Microsoft Dynamics Ammon 3. Ingénierie de données (ETL / ELT) Refactorisation et complétion des pipelines existants Mise en place de l’historisation des données Amélioration des performances et de la fiabilité des traitements 4. Qualité, Traçabilité & Documentation Mise en place de contrôles de qualité automatisés Gestion de la traçabilité et des règles de gestion Documentation du socle data pour sécuriser et pérenniser l’existant 5. Interface Métier Compréhension fine des besoins des opérationnels (indicateurs, chiffres, règles de gestion) Traduction des besoins métier en spécifications techniques Capacité à challenger les demandes pour garantir la cohérence globale du modèle
Mission freelance
Data Engineer - LYON
Publiée le
Azure
Databricks
Python
1 an
400-550 €
Lyon, Auvergne-Rhône-Alpes
Intitulé du poste : Data Engineer Localisation : Lyon Expérience souhaitée : 5 à 7 ans en Data Engineering, idéalement avec une expérience en analyse de données Rôle et responsabilités du consultant recherché : Data Engineer confirmé Garantir l’intégration des sources de données nécessaires à la continuité du reporting interne et externe Assurer la continuité et le développement des flux de données entre les sources et les rapports Contribuer au plan de convergence des méthodes de mesure de la performance via les KPI Contribuer à la cartographie des flux de données et des KPI utilisés dans les deux organisations, ainsi que de leurs méthodes de calcul Être l’interface avec le Data Office afin de garantir les meilleures pratiques de développement Ce rôle sera un point de dépendance unique (Single Point of Dependency) Compétences techniques requises SQL / Python Databricks Data Lake & DataMart Développement de cubes Environnement Microsoft Gestion de projets techniques Qlik Autres compétences attendues Anglais niveau B2 / C1 Compétences interpersonnelles Travail en équipe Parcours et expérience Expérience dans des projets complexes en environnement international Description de la mission Support de l’équipe Data locale dans le cadre de la migration d’une plateforme de téléphonie Livrables attendus Ingestion des données dans le Data Lake Développement du DataMart Automatisation des flux de données avec Pegasus Développement de cubes Environnement technique Microsoft, AVAYA, GENESYS
Mission freelance
Data Engineer GCP / Big Data (H/F)
Publiée le
Google Cloud Platform (GCP)
Java
Spark Streaming
3 mois
Paris, France
Télétravail 100%
En tant que Data Engineer, vous serez responsable de : Conception & Développement (Big Data / Java / Spark) – 40% Développer et optimiser des traitements Big Data en Java et Spark. Créer, maintenir et améliorer des pipelines de données robustes et scalables. Assurer la qualité, la performance et la fiabilité des traitements batch et streaming. Cloud Engineering – GCP (DataProc / Workflows / Cloud Run) – 30% Concevoir et maintenir des solutions data sur GCP. Déployer et orchestrer les traitements via DataProc, Workflows et Cloud Run. Optimiser les coûts, la sécurité et les performances des environnements GCP. Data Warehousing – BigQuery – 15% Modéliser, structurer et optimiser les tables BigQuery. Mettre en place des requêtes performantes et adaptées aux usages analytiques. Assurer la gouvernance et la qualité des données. Systèmes & DevOps – 5% Intervenir sur des environnements Linux. Contribuer au monitoring et à l’amélioration continue des systèmes. Outils complémentaires – 10% Participer à l'infrastructure-as-code via Terraform. Déployer et automatiser via GitHub Actions. Contribuer aux bonnes pratiques CI/CD.
Offre d'emploi
Consultant AMOA achat ( sourcing et approvisionnement & intégration)
Publiée le
AMOA
MOA
Recette
18 mois
20k-60k €
100-600 €
Paris, France
Télétravail partiel
CONTEXTE Mise en place d'un outil de SI achat - Refonte du processus d'approvisionnement achat pour que toutes les demandes d'achat enregistrées via les anciens outils transitant par une cellule d'achat. En renfort du chef de projet en charge du domaine achat, la direction MOA souhaite renforcer son dispositif avec un consultant maîtrisant le processus achat ( sourcing et approvisionnement). Ce consultant travaillera en collaboration avec le chef de projet dans toutes les tâches de formalisation que ces travaux nécessitent (compte-rendu réunion, support de dossier d'arbitrage, procédure et processus cible) Analyse des besoins et spécifications fonctionnelles : • Réflexion autour des meilleures solutions d'intégration du portail. • Analyse des besoins et formalisation des processus cibles autour de l'approvisionnement • Définition des nouveaux processus. • Rédaction des dossiers d'arbitrage et des livrables Activités principales / Livrables attendus : • Tests et recette de la solution. • Documentation et formation des utilisateurs. • Mise en place d'un portail fournisseur
Offre d'emploi
Ingénieur Data analyst tableau
Publiée le
CRM
Microsoft Access
SQL
12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
Contexte & périmètre Production d’indicateurs de performance à destination des métiers Relation Client et ADV Rôle clé d’accompagnement de l’équipe Data (2 DA internes) Contribution à l’évolution des pratiques, méthodes et à l’intégration de l’IA dans les usages métiers Profil recherché Data Analyst expérimenté / senior Compétences techniques : Tableau BDD / SQL Idéalement Salesforce / CRM (incluant Salesforce Analytics) Capacité à : Accompagner l’équipe sur les nouvelles méthodes et façons de faire Déléguer et piloter une partie des chantiers auprès de deux DA internes Profil communicant, à l’aise avec les métiers Objectifs & livrables Qualification des besoins métiers lors des points de revue Priorisation et planification des sprints (revues bi-mensuelles) Production des indicateurs dans les délais engagés Validation de la conformité des livrables avec les métiers Délégation et supervision de l’avancement de certains chantiers Consolidation et reporting d’avancement (travaux directs et délégués) Accompagnement de l’équipe sur : Méthodologie Nouvelles pratiques Usage de l’IA Suivi de la production et des engagements clients
Mission freelance
Développeur senior Python/Full-stack spécialisé agents IA
Publiée le
CI/CD
DevOps
IA
12 mois
400-620 €
Île-de-France, France
Télétravail partiel
Compétences techniques : Dev Agent IA - Expert - Impératif PYTHON - Confirmé - Important DEVOPS - Confirmé - Important Description détaillée : Pour renforcer l'équipe GEN IA, nous recherchons un développeur sénior full stack ou python ayant déjà une forte expérience dans le développement d'agent IA à travers google ADK ou Microsoft IA fondery ou autre plateforme de développement d'agent IA. L'équipe a pour role de : - de définir et mettre en place la stratégie Agentic IA au sein de TF1 - développer des POC sur des uses cases métiers à forte valeur Le développeur doit avoir une bonne connaissance du fonctionnement des LLM et de l'agentic Env Tech : Azur ( OpenAI) , AWS ( claude, bedreocl, ..) , AKS/EKS Connaissance de AzDEVOPS, pipeline CI/CD À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures orientées Web Fullstack.
Offre d'emploi
Data Quality Analyst
Publiée le
Data governance
Data quality
1 an
40k-45k €
400-610 €
Paris, France
Télétravail partiel
Mission La mission du Data Office s'est fortement enrichie avec la promotion de l'utilisation de la DATA par l'ensemble des projets des Métiers / Fonctions (Risque/Finance/ IT) de l'organisation et du Groupe. L'objectif est de développer l'activité commerciale, de diminuer les couts, d'améliorer l'efficacité opérationnelle et de répondre à la dimension règlementaire. La mission est au sein de l'équipe Data Office Data Quality. L'activité de cette équipe porte sur le développement, l'amélioration et le déploiement du Dispositif Data Quality (contrôle, dimension, labélisation, coordination des remédiations) dans l'écosystème de l'organisation et sur l'accompagnement Data sur les projets réglementaires (définition, cadrage, flowcharts, règle de gestion..)
Offre d'emploi
Ingénieur QA Senior – Test Automation & Quality Engineering (H/F)
Publiée le
Python
Robot Framework
Test fonctionnel
1 an
50k-55k €
310-370 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Télétravail partiel
Il s’agit d’un poste de QA engineering , intégré aux équipes agiles, avec une responsabilité transverse sur la qualité, sans management hiérarchique. ANGLAIS (B2) MANDATORY VOS MISSIONS PRINCIALES Le poste est orienté pilotage de la qualité et test automation avancé : Définir et piloter la stratégie de test globale sur des systèmes complexes Concevoir des plans de test structurés , alignés sur les enjeux métiers et techniques Développer et maintenir des frameworks de test automatisés : RobotFramework (indispensable), Python , outils complémentaires selon périmètre (Playwright, TTS, etc.) Mettre en œuvre une démarche shift-left testing , en lien étroit avec les développeurs et architectes Challenger les choix d’architecture du point de vue de la testabilité Garantir la qualité des parcours critiques (paiement, traitements data) Intégrer les tests dans les pipelines CI/CD Gérer et prioriser les anomalies critiques , jusqu’à leur résolution Assurer la traçabilité et la documentation QA (Jira, Confluence, Octane) Contribuer à l’ amélioration continue des pratiques QA au sein des équipes
Offre d'emploi
DATA SCIENTIST SENIOR AUDIO
Publiée le
BERT
Deep Learning
GitLab CI
65k-70k €
Paris, Île-de-France
ACCROCHE CE QUE TU RECHERCHES : Développer des applications performantes et évolutives Concevoir et piloter des projets de développement logiciel Relever des défis techniques dans des environnements complexes et exigeants Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi Au sein d’un acteur majeur du secteur , tu piloteras : Analyse des besoins et rédaction des spécifications techniques, tu réaliseras Conception et développement des applications, tu piloteras Mise en production et suivi des performances, tu assureras Encadrement des équipes de développement, tu animeras Intégration des bonnes pratiques DevOps et CI/CD, tu impulseras Les équipes métier et IT, tu accompagneras Aux instances de gouvernance technique, tu contribueras QUI TU ES : Diplômé(e) de la formation qui va bien Expérience de ans minimum en gestion de projets de développement Expert(e) en langages de programmation : Habile avec les outils : AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu aimes coder, mais encore plus voir tes projets prendre vie Autonome : tu sais organiser et prioriser les développements Esprit de synthèse : tu simplifies des architectures complexes Visionnaire : tu anticipes les évolutions technologiques Méthodique : tu structures et documentes chaque projet avec rigueur Communicant(e) : tu facilites les échanges entre les équipes métier et technique Réactif(ve) : tu sais gérer les imprévus et résoudre les incidents rapidement Pragmatique : tu développes des solutions adaptées aux besoins des utilisateurs Pédagogue : tu partages tes connaissances et fais monter les équipes en compétences Organisé(e) : tu sais gérer plusieurs projets en parallèle sans rien laisser au hasard
Mission freelance
Data engineer
Publiée le
Azure Data Factory
Databricks
Scala
12 mois
400-560 €
Île-de-France, France
Télétravail partiel
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques : Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB - Digital vise à centraliser et harmoniser l'ensemble des données relatives à la diffusion publicitaire digital (impressions, chiffre d'affaire etc) pour permettre un reporting fiable selon différentes dimensions (canal de vente, origine, équipes commerciales, annonceurs etc) et garantir une vision unifiée de la performance digitale. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité (réécriture en DBT) - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code Le profil est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Offre d'emploi
Expert Cybersécurité Cloud & Gen-IA (Azure / Microsoft)-(H/F)
Publiée le
Azure
DevSecOps
GenAI
1 an
Fontenay-sous-Bois, Île-de-France
Contexte Dans le cadre du déploiement de projets d’ Intelligence Artificielle Générative (Gen-IA) au sein d’un grand groupe bancaire international , la mission vise à renforcer la sécurité des implémentations IA sur les environnements Cloud Microsoft (Azure, Microsoft 365, Copilot). L’enjeu principal est d’accompagner les centres de compétences et les équipes métiers dans la sécurisation des usages Gen-IA, tout en maîtrisant les risques spécifiques liés aux LLM (Large Language Models) dans un contexte agile, cloud et international . Objectif de la mission Assurer la sécurisation de bout en bout des projets Gen-IA déployés sur les environnements Microsoft, en combinant cybersécurité cloud, DevSecOps et expertise IA , et en produisant une documentation sécurité complète et exploitable . Missions principales Accompagner les équipes projets et métiers dans la sécurisation des implémentations Gen-IA . Analyser et maîtriser les risques spécifiques aux LLM : Prompt injection Data leakage Model poisoning Concevoir et formaliser les architectures sécurisées IA sur Azure / Microsoft . Définir et produire les livrables sécurité : Dossiers de sécurité Analyses de risques Blueprints sécurité Mettre en œuvre des pratiques DevSecOps adaptées aux projets IA (pipelines CI/CD sécurisés). Intégrer les dispositifs de sécurité Cloud avec les outils SOC / SIEM . Garantir la conformité aux réglementations et normes cybersécurité internationales (RGPD, IA, cloud). Participer à la diffusion des bonnes pratiques de sécurité IA au sein des équipes. Compétences clés (impératives) Sécurité opérationnelle Cloud Azure Expertise DevSecOps Expérience sur architectures Gen-IA Maîtrise des risques propres aux LLM Environnements Microsoft 365 / Copilot Compétences importantes Sécurisation des pipelines CI/CD Documentation cybersécurité (dossiers, blueprints, analyses de risques) Intégration SIEM / SOC sur Cloud Réglementations internationales (RGPD, IA, Cloud) Bonnes pratiques de sécurité IA et Cloud Microsoft Normes de cybersécurité Cloud Capacité à gérer l’ambiguïté et l’incertitude Forte capacité rédactionnelle et analytique Approche agile orientée gestion des risques Compétences rares / expert Sécurité avancée Azure + Gen-IA DevSecOps appliqué aux projets IA Cloud Expertise approfondie sur les risques LLM Architecture sécurisée Azure / Microsoft pour l’IA Sécurisation avancée de Copilot / Microsoft 365
Mission freelance
Consultant Senior AI / MLOps
Publiée le
MLOps
6 mois
500-750 €
Paris, France
Télétravail partiel
Contexte du projet Le projet s’inscrit au sein d’une fonction IT transverse , dans un environnement international, avec une montée en puissance des usages Data, Machine Learning et Intelligence Artificielle Générative . L’objectif est de structurer, sécuriser et industrialiser les développements IA, tout en garantissant la continuité opérationnelle, la création de valeur business et l’adoption des solutions par les métiers. Mission En tant que Senior Consultant AI / ML Development & Operations , vous interviendrez au cœur des activités IA, MLOps et plateforme Data , avec un rôle clé à l’interface entre les équipes techniques et les métiers. Vous contribuerez à la structuration des processus MLOps, au pilotage des projets IA et à l’industrialisation des déploiements dans une logique Agile et orientée produit . Responsabilités Pilotage projets & valeur business Assurer l’exécution des projets IA et GenAI dans le respect des délais, des coûts et de la qualité. Structurer et prioriser un portefeuille de demandes IA en lien avec les équipes métiers. Suivre et communiquer la valeur business des solutions IA via des KPIs et dashboards. Contribuer à l’acculturation IA des parties prenantes (IT et métiers). Process, MLOps & Run Définir et formaliser les processus de gouvernance et de Machine Learning Operations (MLOps) . Intégrer les développements IA dans les pipelines CI/CD existants. Piloter les activités RUN et le monitoring de la plateforme IA interne. Optimiser la performance, la fiabilité et les coûts des solutions déployées.
Offre d'emploi
Développeur Python (H/F)
Publiée le
Agile Scrum
Big Data
Docker
12 mois
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Tu as l'esprit d'initiative et tu aimes travailler dans un environnement stimulant, postule sans attendre à cette offre de Développeur·se Python qui est faite pour toi ! 🚀 Ton challenge si tu l’acceptes : Développer des solutions innovantes en Python, avec un code optimisé, clair et bien documenté. Intégrer des API et interagir avec des bases de données relationnelles et / ou non relationnelles Contribuer à la pérennité et à l'évolution des applications en assurant leur maintenance et en proposant des améliorations continues. Être un acteur clé de la qualité du code en concevant et en mettant en œuvre des tests unitaires et d'intégration robustes. Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe
Mission freelance
Consultant DATA Gouvernance Senior
Publiée le
Data governance
1 an
Paris, France
Télétravail partiel
Intervention au sein d'un programme de transformation du SI Finance Corporate visant à fiabiliser, harmoniser et piloter les données financières (reporting, performance, réglementaire). Missions principales ➡️ Définir et déployer le cadre de gouvernance des données Finance (référentiels, règles de gestion, qualité des données). ➡️ Cartographier les flux de données financières et leurs usages (comptabilité, contrôle de gestion, reporting, réglementaire). ➡️ Mettre en place et animer les rôles Data Owner / Data Steward Finance. ➡️ Définir et suivre les indicateurs de qualité de données (complétude, cohérence, fiabilité). ➡️ Contribuer à la conduite du changement et à l'appropriation des bonnes pratiques data par les équipes Finance et IT. ➡️ Assurer l'alignement entre les besoins métiers Finance et les solutions SI (ERP, EPM, BI, Data Platform).
Mission freelance
Data Engineer Kafka/JAVA
Publiée le
Apache Kafka
Java
Spark Streaming
4 mois
Paris, France
TEKsystems recherche pour le compte de son client dans le secteur de l'assurance : Un data engineer Spark/ JAVA (H/F) Missions : La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs. Contexte: Réalisation des projets Data et de MCO des patrimoines applicatifs Data du Groupe. Cette prestation s'inscrit dans la squad « Restitution Règlementaires » qui a en charge la constitution des déclaratifs à destination des organismes de tutelle Les principaux déclaratifs concernés sont les suivants : • FICOVIE • EAI / FATCA • IER • ECKERT •AGIRA / RNIPP Les déclaratifs sont constitués à partir de 2 sources : Décisionnel et Plateforme Data en big Data. La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs.
Offre premium
Mission freelance
Data Engineer Snowflake - secteur pharma - Lille/Rennes/Nord (1 jours présentiel/semaine) - H/F
Publiée le
AWS Cloud
Database
Snowflake
3 mois
400-550 €
59006, Lille, Hauts-de-France
Télétravail partiel
⭐ Contexte de la mission Dans le cadre d’un projet Data à dimension européenne , nous recherchons un Data Engineer Snowflake confirmé pour accompagner la mise en place d’une Data Platform Cloud pour un acteur du secteur pharmaceutique. La plateforme sera hébergée sur AWS et aura pour objectif de centraliser et structurer des données aujourd’hui dispersées suite à plusieurs acquisitions. Le consultant interviendra au sein des équipes Data (mode projet) , en collaboration étroite avec des experts Data & Cloud déjà en place. Concevoir et développer des pipelines d’ingestion et de transformation de données sous Snowflake Participer à la modélisation des données et à la structuration du Data Warehouse Contribuer aux ateliers techniques et fonctionnels avec les équipes internes et métiers Participer à la mise en place de bonnes pratiques Data Engineering & DataOps Travailler en collaboration avec les équipes Cloud & Projet (AWS / Plateforme) Assurer un haut niveau de qualité, performance et fiabilité des données
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- deduction loyer et contrat de mise à disposition
- Mes données de la CIPAV (trimestre, droit) ont disparues sur lassuranceretriate
- Micro-entreprise après EURL ?
- Ajout d'une deuxième activité en tant que micro-entrepreneur
- domiciliation et etablissement principal
- Compte Autoentrepreneur - Création ou modification
5815 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois