Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 217 résultats.
Offre d'emploi
Senior data engineer H/F
Publiée le
55k-63k €
Neuilly-sur-Seine, Île-de-France
Au sein de la DSI, l'équipe Data (10 personnes) joue un rôle central dans la valorisation des données de l'entreprise. Vous rejoignez le pôle Solutions Data, pour contribuer à la mise en œuvre et à la maintenance du Système d'Information décisionnel. Vos missions sont les suivantes : Participer à la conception et au développement de projets data innovants Assurer le maintien en conditions opérationnelles (MCO) des bases, applications et flux de données existants Collaborer avec les équipes Métiers pour analyser et traduire les besoins fonctionnels en solutions techniques Contribuer à l'amélioration continue de la plateforme data (processus, outils, qualité des données) Documenter les développements et assurer un transfert de compétences auprès de l'équipe Data
Mission freelance
Tech Lead DATABRICKS (Lyon)
Publiée le
Azure Data Factory
Java
1 an
500-650 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un leader technique. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Offre d'emploi
DATA ANALYSTE Communication Digitale
Publiée le
Transformation digitale
18 mois
40k-45k €
100-400 €
Paris, France
Télétravail partiel
CONTEXTE La prestation se déroulera pour le compte de la direction de la communication digitale pour conduire les analyses quantitatives et qualitatives relatives à la réputation sur les réseaux sociaux et le web. MISSIONS : Cette prestation aura pour objectif de : - Assurer une veille continue et réactive des sujets de discussions sur les réseaux sociaux et le web, au travers d’outils de social listening - Rédiger en temps limité des notes d'analyse des retombées sur ces sujets (des notes quotidiennes, mensuelles, thématiques, ad hoc…) - Assurer une veille en temps réel des sujets de crise et, régulièrement, d’émissions en direct durant leur diffusion en soirée -Assurer une veille à hauteur de 1 à 2 week-ends par mois (9h30 – 18h30) – A discuter en fonction de vos disponibilités - Effectuer des études réputationnelles dans le cadre d’opérations de marketing d’influence - Construire des recommandations stratégiques et éditoriales à l'attention de l'équipe de la Direction de la communication digitale et des autres Directions du Groupe Expertises demandées pour la réalisation de la prestation : - Une expérience d’au moins un an dans le secteur des médias et/ou dans le secteur public sont un prérequis. - Au moins 5 ans d’expériences similaires, en social listening. Une maîtrise préalable avancée d’outils de social listening est attendue. La maîtrise de Talkwalker sera très appréciée. Une expérience extensive avec X Pro (Tweetdeck) constitue un avantage pour la prestation, de même que des connaissances dans l’utilisation de Gephi et d’outils d’IA générative. - Des expériences en matière d’études réputationnelles et de marketing d’influence, ainsi que la maîtrise d’outils de recherche et d’analyse de profils d’influenceurs, constituent un avantage fort pour la prestation. - Une excellente aisance rédactionnelle est nécessaire. - Des connaissances étendues sur les sujets sociétaux, politiques, médiatiques et numériques devront pouvoir être mobilisées. Spécifiquement, des connaissances sur le fonctionnement des principaux réseaux sociaux sont attendues.
Offre d'emploi
Data Engineer - Nantes
Publiée le
ETL (Extract-transform-load)
Informatica
Semarchy
40k-43k €
Nantes, Pays de la Loire
Nous recherchons un Ingénieur Data / Développeur ELT en CDI, passionné par la manipulation de données et les environnements analytiques. Vous participerez à la conception, l’alimentation et l’optimisation de nos flux de données stratégiques. vos missions : Concevoir, développer et maintenir des flux d’intégration de données. Participer à l’architecture et à l’industrialisation des traitements ELT/ETL. Travailler sur des environnements manipulant de très gros volumes de données. Collaborer avec les équipes métiers et techniques pour garantir la qualité et la cohérence des données. Optimiser la performance des requêtes et des pipelines de données.
Offre d'emploi
Data Analyst
Publiée le
Google Cloud Platform (GCP)
PL/SQL
Python
1 an
Paris, France
Télétravail partiel
OBJECTIF Le projet est actuellement lancé avec une mise sous contrôle qualité des données critiques et des plans d’action de remédiation avec les systèmes informatiques de gestion. Le département nécessite l’expertise d’un Data Analyst afin d’améliorer l’analyse des données au sein de l’entreprise. Ce poste est essentiel pour interpréter et analyser la qualité des données clés du business et du métier, tout en collaborant étroitement avec les équipes métiers et IT. Le Data Analyst sera en charge de la mise en oeuvre des analyses pour élaborer les contrôles de qualité de données et les KPIs, d’assurer le maintien et les évolutions du Data Quality Dashboard, de participer aux plans d’action de remédiation, en collaboration avec l’équipe Data du département, et avec les responsables informatiques / métiers des applications.
Mission freelance
Data ingénieur (H/F)
Publiée le
Microsoft Fabric
Python
12 mois
Paris, France
Télétravail 100%
Teksystems recherche pour l'un de ses clients grand compte un(e) Data ingénieur (H/F) Missions principales : o Implémentation des composants Microsoft Fabric liés aux cas d’usage prioritaires o Conception et industrialisation de pipelines d’ingestion/traitement (ETL/ELT), APIs et modèles de données avec Microsoft Fabric o Observabilité, data quality, tests, CI/CD et documentation technique o Optimisation coûts/performance, sécurité et conformité o Collaboration étroite avec Data Analysts et équipes métiers
Mission freelance
Senior Azure Data Engineer
Publiée le
Automatisation
Azure
Data Lake
6 mois
400-550 €
Paris, France
Télétravail partiel
Concevoir, construire et maintenir des pipelines d'ingestion de données à l'aide d'Azure et d'outils ETL (Talend, Informatica). Intégrer diverses sources de données dans les environnements Azure Data Lake et Databricks. Garantir l'évolutivité, la performance et la sécurité des solutions de données. Optimiser les flux de travail et automatiser les processus afin de réduire les interventions manuelles. Collaborer étroitement avec les analystes métier pour traduire les besoins en solutions techniques. Gérer plusieurs projets simultanément, en assurant le respect des délais et des bonnes pratiques. Mettre en œuvre des contrôles de qualité des données et des normes de documentation. Contribuer aux initiatives d'amélioration continue au sein de l'équipe DataOps.
Offre d'emploi
Chef(fe) de Projet Data / CDP – Activation & CRM
Publiée le
CRM
Data analysis
1 an
51k-59k €
510-580 €
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) Chef(fe) de Projet Data expérimenté(e) pour piloter et optimiser les cas d’usage d’activation marketing et CRM dans un environnement riche en données utilisateurs. Vous interviendrez sur l’exploitation d’une Customer Data Platform (CDP) et sur la mise en place de projets transverses autour de la collecte, de l’activation et de la gouvernance de la donnée. Vos missions 1. Pilotage des besoins CRM & Activation Challenger les besoins métiers (Email & Push) et les traduire en projets Data. Créer et optimiser les segments d’audience, flux de données et collectes. Animer les points hebdo avec les équipes métiers. Proposer de nouveaux cas d’usage basés sur les features CDP et les nouvelles données collectées. 2. Gestion opérationnelle de la CDP Participer au run et à l’amélioration continue de la CDP. Créer et suivre les segments, dashboards de data quality & insights. Définir et maintenir les plans de marquage. Suivre la bonne implémentation de la collecte (recettes, correctifs). Rédiger et maintenir les documentations fonctionnelles et techniques. Assurer la coordination avec l’éditeur de la CDP. 3. Gestion de projets Data Animer ateliers, cadrages et comités de pilotage. Coordonner Data, Tech, Produit, CRM, RGPD, Marketing, Offres… Garantir l’avancée des projets, la qualité des livrables et les indicateurs de performance. Mesurer, communiquer et optimiser la performance des cas d’usage. 4. Documentation & Roadmap Rédiger les spécifications fonctionnelles, CR, supports projet. Contribuer à la roadmap et au référentiel de segments. Documenter les cas d’usage et leurs performances. 5. Amélioration continue & innovation Force de proposition sur les méthodologies projet (alertes, risques, arbitrages…). Proposition de nouveaux cas d’usage, collectes ou développements exploratoires.
Offre d'emploi
Tech Lead Data
Publiée le
Méthode Agile
1 an
40k-56k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Nous recherchons un expert Data IT pour accompagner la migration des projets vers le Cloud interne et soutenir les équipes de développement dans l’adoption des bonnes pratiques de développement , en intégrant les enjeux de sécurité et de gouvernance des données . Il contribuera à la mise en place d’automatisation et d’industrialisation selon les principes DevSecOps , participera aux chantiers d’amélioration continue et au monitoring transverse, tout en intervenant dans les premières implémentations de solutions Gen AI appliquées à la donnée . Acteur clé de la stratégie Data France , il apportera conseil et expertise auprès des squads, animera des sessions de formation et mènera des études d’optimisation des services de l'équipe Data . Une veille technologique active et la maîtrise de l’environnement Big Data Hadoop ainsi que du développement SPARK SCALA sont indispensables pour ce poste.
Mission freelance
Chef de Projet Data Science (H/F)
Publiée le
BigQuery
Data science
Gestion de projet
210 jours
610-800 €
Île-de-France, France
Télétravail partiel
Un grand groupe français du secteur des médias et du numérique recherche un Chef de Projet Data Science senior pour coordonner les initiatives data entre équipes techniques et directions métiers, afin de maximiser l'exploitation de la donnée comme levier de croissance. Missions principales : Assurer la cohérence entre les pôles Data (Technique, Intelligence, Management, Gouvernance) Être le point d'entrée pour les directions métiers (Produit, Editorial, Marketing, Publicité) Recueillir et formaliser les besoins data Animer ateliers et instances projets Produire le reporting et suivre les avancées
Mission freelance
POT8726 - Un Expert Qualité des Données sur Paris
Publiée le
Data quality
Gouvernance
ITIL
6 mois
260-390 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Expert Qualité des Données sur Paris. Descriptif: En tant qu'expert Qualité des Données ServiceNow en SI, vous jouerez un rôle clé dans l'amélioration et la maintenance de l'intégrité des données au sein de notre plateforme ServiceNow. Votre ewpertise sera cruciale pour établir une fondation solide pour une meilleure gouvernance des données, essentielle à la performance et la fiabilité de nos opérations IT et R&I. Vous rejoindrez une équipe internationale existante, tout en collaborant étroitement avec diverses équipes IT et métiers de la R&I. Votre Mission & Responsabilités Clés : Identification et Cartographie des Objets ServiceNow : - Procéder à une identification exhaustive de tous les types d'objets et enregistrements critiques sur la plateforme ServiceNow impactant nos processus R&I et IT. Cela inclut, sans s'y limiter : les Groupes, les Applications, les Projets, les EPICs, les Enhancements, les Stories, les Releases, les CI (Configuration Items), les Connaissances (Knowledge Bases). - Comprendre et documenter la manière dont ces objets sont utilisés et interdépendants. Formalisation des Règles de Conformité des Données : - Définir et formaliser des règles claires et précises de conformité et de qualité des données pour chaque type d'objet identifié. Ces règles devront couvrir des aspects tels que l'exhaustivité, la cohérence, la validité et la précision des informations. Inventaire et Analyse de la Qualité des Données : - Mener un inventaire détaillé de l'état actuel des données sur ServiceNow, évaluant leur conformité par rapport aux règles établies. - Identifier les lacunes, les doublons, les incohérences et toutes les données obsolètes ou non conformes. Création d'un Dashboard de Suivi de la Qualité des Données : - Développer et mettre en œuvre dashboard dynamique au sein de ServiceNow ou via des outils de reporting. Ce dashboard devra permettre de visualiser l'état de la qualité des données, de suivre l'avancement du nettoyage et d'identifier les zones nécessitant une attention continue. - Intégrer des indicateurs clés (KPIs) de qualité des données pour une visibilité constante. - Pilotage et Suivi du Plan de Nettoyage (Clean-up) : - Élaboration d'une feuille de route pour le nettoyage des données identifiées comme non conformes ou de mauvaise qualité. - Coordonner et suivre les actions de correction avec les équipes opérationnelles et les propriétaires de données. - Assurer le reporting régulier de l'avancement du clean-up et l'efficacité des actions menées. Recommandations pour la Gouvernance et l'Amélioration Continue : - Proposer des recommandations concrètes pour l'amélioration des processus de saisie et de maintenance des données, afin de prévenir la dégradation future de la qualité. - Contribuer à l'établissement de bonnes pratiques de gouvernance des données sur ServiceNow.
Mission freelance
Développeur Python Senior
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
12 mois
Hauts-de-Seine, France
Télétravail partiel
Secteur d'intervention : Assurance Type de prestation : Assistance Technique avec facturation journalière Métiers et fonctions impliqués : Études & Développement, Développeur Compétences techniques requises : Technologies et outils : Python, React (React JS) Méthodes / Normes : IFRS17; Adapter Soft skills : Rigueur Description de la mission : Le projet concerne un client dans le secteur de l'assurance, pour lequel le développeur sera intégré à une équipe Data à mi-temps (2/3 jours par semaine). La mission principale est le développement d'outils pour soutenir les activités métiers telles que la modélisation, projection actuarielle et études statistiques, notamment pour répondre à la norme IFRS17. Les responsabilités incluent : Développement en Python des études actuarielle sur le produit Maintenance du front de l'application (React) – connaissances en React appréciées Recueil, analyse et formalisation des besoins utilisateurs Coordination avec les Engineering Managers pour assurer le delivery (développement, tests, opérations) en respectant les exigences de sécurité du client Communication et application des standards et bonnes pratiques au sein de la tribu et des équipes métier
Mission freelance
Responsable Strategie Data / IA senior
Publiée le
IA
1 an
400-600 €
Île-de-France, France
Localisation : Hauts-de-Seine Expérience : 7 an et plus Mission : 1 an renouvelable Spécialités technologiques : Intelligence artificielle Big Data Description et livrables de la prestation : Contexte : Un grand groupe français souhaite accélérer un programme transverse Data & IA visant à mieux coordonner plusieurs entités internes expertes (data, IA, plateformes, industrialisation) et à renforcer la cohérence globale de la filière. Des actions ont déjà été engagées (gouvernance, premiers chantiers, animation du collectif), et le groupe veut désormais structurer davantage et passer à l’échelle : clarifier le positionnement, harmoniser les pratiques, renforcer la capacité à travailler “d’une seule voix”, et améliorer l’efficacité de bout en bout (de l’offre au déploiement). Objectifs de l’appel d’offre : - Renforcer l’alignement entre entités contributrices (offres, priorités, modes opératoires, gouvernance). - Accélérer les synergies opérationnelles et business (offres conjointes, réponses coordonnées, passage à des engagements plus ambitieux). -Définir/mettre à jour une roadmap 2025–2026 et sécuriser l’exécution via une gouvernance robuste. -Structurer une stratégie marketing & communication (messages, visibilité, preuves, supports), incluant une réflexion sur une architecture de marque type “marque ombrelle” + déclinaisons, sans logique de fusion. -Renforcer l’animation “collectif” et la capitalisation (veille, retours d’expérience, publications, démarche à impact / IA responsable). Rôle attendu du prestataire : -Le prestataire intervient comme pilote et facilitateur du programme, à l’interface entre direction, sponsors, et entités contributrices : -Pilotage / PMO de programme : cadrage, planification, suivi des chantiers, animation des rituels, préparation/animation des comités, gestion des actions et décisions. -Structuration de l’offre : formalisation d’une offre de service cohérente, lisible et réplicable, articulation des contributions des différentes entités. -Activation des synergies : mise en place de mécanismes concrets (process, coordination, “passage de relais”, construction d’offres croisées, consolidation des retours terrain). -Marketing & communication opérationnels : plan de communication, contenus, kits de présentation, éléments de langage, valorisation des réalisations et cas d’usage. -Rayonnement & animation de l’expertise : cadrer une dynamique de type “lab/collectif” (veille, publications, événements internes/externes, démarche à impact). Livrables attendus : -Roadmap 2025–2026 (priorités, jalons, chantiers, dépendances) + cadre de pilotage associé. -Dispositif de gouvernance : comitologie, rituels, responsabilités, tableaux de suivi et reporting. -Plan marketing & communication : objectifs, messages, cibles, canaux, calendrier, contenus. -Kit de communication & kit commercial : pitchs, trames, supports, éléments de langage, preuves, cas d’usage / retours d’expérience. -Reporting périodique (ex. trimestriel) : avancement, synergies réalisées, points de blocage, recommandations. -Synthèse annuelle : bilan, impacts, perspectives et axes de développement. Expertise souhaitée : - Expérience avérée en accompagnement de programmes de transformation Data & IA - Compétences en marketing stratégique, gouvernance et pilotage d’écosystèmes complexes - Capacité à travailler en contexte multi-entités et à animer la coopération interfiliales - Qualité méthodologique et lisibilité de la proposition - Dynamique, leadership - Expérience en grands groupes Mobilité : Mission Full Time hybride : 2 à 3 jours sur site
Mission freelance
Business Intelligence / Data
Publiée le
Microsoft Power BI
Microsoft SQL Server
Microsoft SSIS
3 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Consultant(e) Business Intelligence, vos principales missions seront : Exploitation des flux de données existants : alimentation des bases, extractions de données Maintenances correctives, évolutives et préventives sur les problématiques liées aux données mises à disposition des métiers ou des partenaires Analyse des besoins métier, appréhension du contexte des maintenances et projets ainsi que veille aux bonnes pratiques de développement Conception et développement de flux de données et/ou restitutions pour les projets à mettre en place Assurer le support de recette et les mises en production dans le respect des normes en vigueur
Mission freelance
Lead Data Engineer Azure Databricks
Publiée le
Apache NiFi
Databricks
PySpark
3 ans
600 €
Île-de-France, France
Télétravail partiel
🔍 Nous recherchons un(e) Lead Data Engineer Azure Databricks avec une forte posture de transmission, coaching et mise en place des standards, pour accompagner une équipe en montée de maturité sur Databricks. 📅 Démarrage ASAP 📍 Île-de-France 🎯 Missions clés : ✅ Optimisation & fiabilisation des jobs Databricks (PySpark / Spark) ✅ Mise en place des standards & bonnes pratiques Data Engineering ✅ Coaching, mentoring, animation de la communauté Tech Lead ✅ Contribution aux migrations & à la modernisation du DataLake ✅ Travail sur l’industrialisation (CI/CD – Azure DevOps)
Mission freelance
Data Analyste Confirmé Power BI Desktop, Power BI Report Server, DAX, RLS, Datamarts, Cognos
Publiée le
Microsoft Power BI
SQL
12 mois
390-400 £GB
Mer, Centre-Val de Loire
Télétravail partiel
Data Analyste Confirmé pour une mission sur MER. Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. Contexte : Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. Missions principales : Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. Compétences requises : - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). Connaissances métier : Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. La mission est sur Mer (proche d'Orleans) - Mission sur le long terme
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
1217 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois