L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 426 résultats.
Mission freelance
Chef de projet Data - Lille
ICSIS
Publiée le
Méthode Agile
1 an
450-550 €
Lille, Hauts-de-France
La mission consiste à : Accompagner les interlocuteurs métier Piloter les projets de mise en place de flux Data Produire l'ensemble des livrables en accord avec la méthodologie Documenter et industrialiser Compétences attendues : Expériences significatives en chefferie de projet autour de la DATA Bonne maitrise technologique Pilotage de plusieurs projets simultanés Animation de réunions projets et suivi de plan d'action Animation d'acteurs internes et externes Mission basée sur la métropole lilloise avec télétravail partiel
Offre d'emploi
Administrateur Systeme et Réseaux
PHOEBE INFORMATIQUE
Publiée le
Administration Windows
LAN
Office 365
45k-55k €
Paris, France
EMBAUCHE EN CDI dans les équipes du client Missions du poste : . Administration Système Windows et Linux · Réaliser des nouveaux projets concernant l’infrastructure · Prendre en charge le suivi opérationnel des projets et sujets transverses à l’équipe production · Assurer le maintien en condition opérationnelle de l’infrastructure · Contribuer à la résolution des incidents de niveau 2 et 3 avec l’aide de nos partenaires extérieurs · Participer à l’installation et le maintien en condition opérationnelle de l’infrastructure informatique au sens large en direct ou avec le soutien de nos partenaires spécialisés · Rédiger des notes techniques dans la base de connaissance · Contribuer à assurer la surveillance de l’infrastructure · Apporter son expertise et son soutien opérationnel aux équipes Infrastructure et Support · Interface avec les équipes métiers de la DSI · Proposer de solutions d’optimisation des systèmes ou des plateformes · Veille technologique
Mission freelance
Ingénieur Data à Niort (3 jours sur site)
NEO SOFT SERVICES
Publiée le
Agile Scrum
Dataiku
Modèle Conceptuel des Données (MCD)
24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Présentation de l’organisation Au sein d’une organisation spécialisée dans les services financiers et l’assurance vie, la Direction des Systèmes d’Information Métier est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du système d’information dédié aux activités d’épargne et de finance. Enjeux stratégiques La valorisation de la donnée constitue un axe majeur de la stratégie de transformation pour les années à venir. Dans ce cadre, l’organisation recherche un Ingénieur Data expérimenté (niveau III) afin de rejoindre l’équipe de développement Data. Le consultant intégrera une équipe Data récemment constituée, avec pour objectif de construire, maintenir et optimiser les plateformes et pipelines de données , afin de garantir la fiabilité, la qualité et l’accessibilité des données pour l’ensemble des métiers de l’entreprise. Missions principales Le consultant Data sera rattaché au chef de projet de l’équipe et interviendra comme contributeur technique clé dans le cycle de vie de la donnée . Il participera activement à la mise en œuvre du modèle Data de l’organisation. Les principales missions seront les suivantes : Conception de pipelines de données (ETL / ELT) Concevoir, développer et optimiser des flux de données robustes et performants. Alimenter les entrepôts de données et les DataMarts. Modélisation des données Participer à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle). Adapter ces modèles aux besoins métiers du secteur financier et de l’assurance. Industrialisation des processus Data Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée. Utiliser des outils spécialisés de data science et de data engineering pour automatiser les flux. Visualisation et reporting Assurer l’intégration des données dans les outils de Business Intelligence pour leur exploitation par les équipes métiers. Maintenance et optimisation Garantir la performance et la qualité des flux de données. Maintenir l’infrastructure data en conditions opérationnelles. Compétences techniques recherchées Profil technique disposant d’une forte appétence pour les outils d’industrialisation et de traitement de la donnée . Compétences clés Niveau de prestation : Niveau III exigé Maîtrise avancée du langage SQL Expérience dans la conception et l’implémentation de processus ETL / ELT Expertise en modélisation de données (MCD, dimensionnelle) Capacité à challenger les solutions techniques , estimer les charges et piloter les phases de qualification Connaissance des outils de Business Intelligence (ex : Tableau ou équivalent) Compétences appréciées Maîtrise d’un outil de data science / data préparation (ex : Dataiku ou équivalent) Expérience sur des outils historiques de reporting ou d’analyse de données Connaissance du secteur assurance / finance Organisation de la mission Présence sur site : minimum 3 jours par semaine Télétravail possible le reste du temps Mission nécessitant une bonne autonomie et une capacité d’intégration dans une équipe Data
Offre d'emploi
Développeur Python (H/F)
Aleysia
Publiée le
Agile Scrum
Big Data
Docker
12 mois
Grenoble, Auvergne-Rhône-Alpes
Tu as l'esprit d'initiative et tu aimes travailler dans un environnement stimulant, postule sans attendre à cette offre de Développeur·se Python qui est faite pour toi ! 🚀 Ton challenge si tu l’acceptes : Développer des solutions innovantes en Python, avec un code optimisé, clair et bien documenté. Intégrer des API et interagir avec des bases de données relationnelles et / ou non relationnelles Contribuer à la pérennité et à l'évolution des applications en assurant leur maintenance et en proposant des améliorations continues. Être un acteur clé de la qualité du code en concevant et en mettant en œuvre des tests unitaires et d'intégration robustes. Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe
Offre d'emploi
📩 Data Governance Specialist – Data Catalog & Integration
Gentis Recruitment SAS
Publiée le
Apache Airflow
Collibra
Data governance
6 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son Center of Expertise Data Governance , notre client recherche un Data Governance Specialist pour intégrer l’équipe “Expertise”. Cette équipe joue un rôle transverse clé et intervient sur : la structuration des standards de gouvernance data l’industrialisation des pratiques la résolution des problématiques rencontrées par les équipes métiers et data (Digital Units) La mission s’inscrit dans un environnement data platform avancé , avec des enjeux forts autour de : Data Catalog Data Quality AI Governance Data Contracts Objectifs de la mission 1. Data Catalog (Collibra) – Configuration & amélioration produit Concevoir et implémenter des solutions dans Collibra Configurer l’outil (workflows, administration, évolutions spécifiques) Recueillir et prioriser les besoins utilisateurs Valider et implémenter les spécifications fonctionnelles 2. Intégration dans l’écosystème data Participer à l’intégration du Data Catalog avec la Data Platform Concevoir les flux d’échange de métadonnées Développer et maintenir les connecteurs (API, crawling, etc.) Collaborer avec les équipes architecture Gérer l’interaction avec le support éditeur 3. Gouvernance & transformation Contribution au programme Data Contracts Participation aux sujets stratégiques : AI Governance Framework Trust AI Data Quality by Design Environnement technique Data Catalog : Collibra Data Platform : Databricks Transformation : dbt Orchestration : Apache Airflow Intégration : APIs, connecteurs, metadata exchange Data Quality : Metrics Store / framework interne Compétences attendues Must have Data Governance (confirmé) Data Catalog (idéalement Collibra) Intégration data / metadata / APIs Databricks (avancé) dbt (avancé) Apache Airflow (avancé) Nice to have Expérience sur des programmes de Data Contracts Connaissance des enjeux AI Governance Expérience en environnement data platform à grande échelle Soft skills Capacité à travailler en transverse Bon relationnel avec équipes métiers et techniques Approche structurée / orientée solution Capacité à gérer des sujets complexes
Mission freelance
Pilote de Projets Expérimenté (H/F) – Facturation Électronique
SPI INFORMATIQUE
Publiée le
Cycle en V
3 mois
400-550 €
Deux-Sèvres, France
Piloter et coordonner plusieurs chantiers en parallèle liés à la roadmap produit Planifier les actions, définir les jalons et garantir le respect des délais, coûts et qualité Assurer l’interface entre les équipes internes (développement, architecture, fonctionnel, accompagnement) et les parties prenantes Suivre l’avancement du programme et produire des reportings réguliers (avancement, budget, ressources) Identifier, anticiper et gérer les risques projets, proposer des actions correctives Animer les comités projets, comités de pilotage et réunions de lancement Recueillir et analyser les besoins clients afin de proposer des solutions adaptées Garantir la conformité des livrables fonctionnels et techniques avec les engagements contractuels Participer à la définition des réponses fonctionnelles et à la priorisation des besoins avec le responsable produit Contribuer au chiffrage des projets et au suivi du consommé Mettre en place des outils de suivi, d’analyse et des indicateurs de performance Jouer un rôle de facilitateur en centralisant les informations et en accompagnant les équipes Assurer un support technique et fonctionnel auprès des clients
Mission freelance
Data Analyste (H/F)
Freelance.com
Publiée le
PySpark
1 an
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
2 jours de télétravail non négociable Dans le cadre d’activités liées à l’ analyse de données pour des besoins de contrôle et prévention des risques , l’organisme recrute un Analyste Data afin d’intégrer une équipe spécialisée basée à Aix‑en‑Provence . L’objectif de cette mission est de concevoir et réaliser des analyses avancées à partir de l’ensemble des données du système d’information, afin d’évaluer leur cohérence et leur impact sur des processus métier sensibles . L’intervenant devra participer à la mise en place de cas d’usage orientés détection d’anomalies et comportements atypiques , en croisant différentes sources de données. Il sera également responsable de la création et de la maintenance de produits data réutilisables , tout en appliquant les pratiques internes de qualité, normes et gouvernance des données. Exemples de livrables attendus : Programmes de traitement Big Data Études et analyses documentées Présentations des résultats et recommandations Constructions de KPI et tableaux de bord de synthèse
Mission freelance
EXPERT MIDDLEWARE - ETL & DATA STREAMING
Signe +
Publiée le
Java
12 mois
400-550 €
La Défense, Île-de-France
EXPERT MIDDLEWARE - ETL & DATA STREAMING Centre de competence Architecture et Integration - Group Digital and IT (Saint-Gobain) Contexte Mission au sein de l'equipe Architecture et Integration dans un environnement international et multiculturel. Pilotage des lignes de services integration ETL : Talend (Cloud / hybride) et Data Streaming (Kafka Confluent Cloud). Missions principales Support, suivi et maintenance de l'existant (CRM / Annuaire / PIM) Accompagnement a la creation de nouveaux projets : analyse du besoin, cadrage technique, conception des flux Pilotage de l'equipe en Inde (developpements, tests, deploiements) Gestion du plan de charge et des plannings Administration et suivi operationnel de la plateforme Talend et des composants On Prem Administration et suivi operationnel de la plateforme Kafka Confluent Cloud Suivi de la facturation des deux plateformes Definition et partage des bonnes pratiques (configuration / developpements) Competences requises Talend Data Integration Studio V8 - Expert API et formats Json, Xml, Csv - Confirme Management d'equipe - Confirme Java 8+ - Confirme Linux / Unix - Confirme Kafka - Confirme SQL et Base de donnees - Confirme Source management (Gitlab) - Confirme Connaissances CRM Salesforce - Elementaire
Mission freelance
Senior Data Ops Engineer
CAT-AMANIA
Publiée le
Apache Spark
CI/CD
Databricks
1 an
160-500 €
Lille, Hauts-de-France
Ta mission sera de Garantir la robustesse de la platforme Monitorer et prendre des actions proactive de management de la plateforme de compute Assurer le support et l'accompagnement d'équipes sur Spark, Databricks et EMR Travailler sur les optimisations des traitements Athena/Pyspark Accompagner et former Définir et promouvoir les bonnes pratiques de software engineering et de data engineering sur les technologies proposées au sein de l'équipe participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Travailler sur le concept d'accessibilité et de gouvernance de la donnée Tester de nouveaux outils / features intéressants à intégrer dans notre stack
Mission freelance
Consultant Data Analyst Marketing – Dataiku & Analytics
Deodis
Publiée le
Dataiku
1 an
600 €
Île-de-France, France
Ce poste consiste à piloter et analyser la performance marketing à l’échelle internationale en s’appuyant sur la donnée. Il implique d’accompagner les équipes marketing dans l’identification de leurs besoins, de concevoir et automatiser des solutions de reporting et d’analyse (tableaux de bord, extractions, KPIs), et de formuler des recommandations stratégiques basées sur les données. Le rôle inclut également la gestion et la structuration des données (data lineage, dictionnaire), le développement de flux data robustes et maintenables (notamment via Dataiku, SQL et Python), ainsi que la mise en place de modèles analytiques simples. En interaction constante avec des équipes métiers et IT dans plusieurs pays, il requiert une forte capacité de coordination transverse, un souci de la qualité des données et une communication efficace en environnement international.
Offre d'emploi
Ingénieur systèmes - Ferroviaire F/H
VIVERIS
Publiée le
40k-45k €
Massy, Île-de-France
Contexte de la mission : Dans le cadre d'un projet dans le domaine du ferroviaire, nous recherchons un ingénieur système pour intégrer l'équipe de notre client. L'Ingénieur Système (système et validation) est responsable de la définition, de la vérification, de la validation et de l'intégration du système (ATC, ATS, RS, MSS, PSD). Vos responsabilités : - Rédiger les plans de tests et de validation système ; - Rédiger les spécifications du système ; - Exécuter les procédures de tests et analyser les résultats obtenus ; - Garantir la couverture des exigences de spécification ou de conception par les tests ; - Participer à la relecture et aux revues des documents de spécification et de conception ; - Gérer la relation entre le client et ses équipes internes (design, développement, validation, intégration, déploiement, customer service...).
Mission freelance
Architecte Data Plateforme AWS / Snowflake (H/F)
ALLEGIS GROUP
Publiée le
Agent IA
AWS Cloud
DBT
1 an
Paris, France
Teksystems recherche pour l’un de ses clients grands comptes un Architecte Data AWS / Snowflake (H/F) pour construire, structurer et sécuriser la plateforme data du client basée sur Snowflake et AWS , et accompagner les équipes pour garantir une plateforme performante, scalable et prête à accueillir des fonctionnalités IA . Ce rôle est structurant, durable , et s’inscrit au cœur de la transformation data. Vos missions : 1. Définir et faire évoluer l’architecture de la plateforme Architecture cible Snowflake/AWS Patterns d’ingestion (batch, CDC, near real-time) Modélisation (Data Vault, modèles analytiques) Exposition (BI, APIs, data apps) 2. Industrialiser le delivery data Standards CI/CD (dbt, ingestion, artefacts ML) Automatisation des déploiements Intégration Git / pipelines / qualité Réduction du time-to-market 3. Mettre en place une observabilité complète Suivi fraîcheur, volumétrie, succès/échec des pipelines Tests & qualité de données Performance Snowflake (temps, coûts, consommation) Dashboards RUN, alertes, SLAs 4. Sécuriser la plateforme RBAC, rôles Snowflake, data masking, row-level security RGPD, auditabilité, traçabilité Catalogage, lineage, ownership 5. Accompagner les équipes Support aux devs, pair programming, arbitrages techniques Challenge des choix existants Coordination avec infra / cloud / sécurité 6. Préparer et soutenir le RUN Normes de reprise, diagnostic, alerting Réduction de la dette technique Support N2/N3 Conception orientée exploitabilité
Offre d'emploi
Ingénieur Système Niveau 3 (H/F)
SEA TPI
Publiée le
50k-58k €
Aigues-Mortes, Occitanie
Nous recrutons un Ingénieur Système Niveau 3 (H/F) pour l'un de nos clients situé à Aigues-Mortes spécialisé dans la production et la commercialisation du sel. Missions principales : • Administrer, maintenir et faire évoluer les infrastructures systèmes Microsoft (serveurs, messagerie Exchange, Active Directory) en garantissant leur disponibilité, leur performance et leur sécurité • Participer aux projets de transformation et de migration des environnements (notamment SAP et refonte Active Directory), de la conception à la mise en production • Gérer les identités et les accès (Entra ID, PKI, gestion des habilitations) dans une logique de sécurité et de conformité • Assurer le maintien en conditions opérationnelles des infrastructures, incluant la supervision (Zabbix), la gestion des incidents et l'optimisation continue • Contribuer à l'évolution de l'architecture technique en lien avec les équipes projets et proposer des améliorations des environnements existants • Mettre en œuvre les bonnes pratiques d'exploitation : gestion des mises à jour, sécurité, documentation technique et procédures Des déplacements ponctuels sont à prévoir en Europe ainsi qu'en Tunisie et au Sénégal, notamment sur les sites industriels. Les missions énumérées ci-dessus ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : rblww1f13p
Offre d'emploi
Data Engineer - Semarchy xDI (H/F)
Degetel
Publiée le
ETL (Extract-transform-load)
PowerBI
Sap BO
Strasbourg, Grand Est
💼 À propos de l’entreprise Créée en 2008, Technology & Strategy est une société de conseil franco-allemande qui accompagne ses clients sur des projets d’engineering, de digital et de consulting. Avec plus de 3 500 collaborateurs , répartis dans 27 agences et plus de 10 pays , nous évoluons dans un environnement international 🌍 Ce qui fait notre force : Une expertise technique reconnue Des valeurs fortes : Respect, Partage, Initiative, Excellence Une vraie diversité avec plus de 45 nationalités Des équipes engagées, communicantes et solidaires Un accompagnement clair pour faire évoluer votre parcours Un environnement de travail certifié #HappyAtWork Des projets innovants, concrets et à impact 💼 À propos du poste – Data Engineer (H/F) – Strasbourg Dans le cadre de nouveaux projets data, nous recherchons un Data Engineer pour rejoindre notre équipe strasbourgeoise et intervenir sur des projets dans le domaine bancaire . Vous évoluerez dans un contexte orienté data décisionnelle / BI , avec des enjeux forts autour de l’intégration, de la structuration et de la valorisation des données. 🛠️ Vos missions Concevoir, développer et maintenir des flux d’intégration de données ( ETL / ELT ) Intervenir sur des outils d’intégration, idéalement Semarchy xDI (ex-Stambia) Participer à la modélisation des systèmes décisionnels Travailler sur les bases de données et rédiger des requêtes SQL performantes Contribuer à l’alimentation et à l’exploitation des outils de Business Intelligence Collaborer étroitement avec les équipes data, BI et métiers Garantir la qualité, la fiabilité et la performance des données 🚀
Offre d'emploi
Data Analyst - Bordeaux
OCTOGONE
Publiée le
BI
Google Cloud Platform (GCP)
PL/SQL
9 mois
Bordeaux, Nouvelle-Aquitaine
Contexte Rattaché(e) à l'équipe Data au sein de la R&D d'un ERP Commerce d'un groupe de grande distribution, le/la Data Analyst aura pour mission de manipuler, mettre en qualité et exposer les données aux centrales d'achat du groupe. La mission s'inscrit dans un environnement technologique Cloud (GCP) utilisant des bases de données volumineuses. Description La mission inclut l'écriture et l'optimisation de requêtes SQL complexes pour l'extraction de données. Le consultant participera à la mise en qualité des données lors du déploiement de nouvelles Centrales et assurera une veille sur les outils BI et les principes d'IA générative. Livrables Requêtes SQL optimisées, jeux de données qualifiés pour les reprises de données, et tableaux de bord de visualisation (Looker, Power BI). Compétences Maîtrise avancée de SQL, connaissance de Google Cloud Platform (BigQuery), outils de Business Intelligence, programmation Python et familiarité avec l'IA/Machine Learning.
Offre d'emploi
Data Engineer senior
Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue
1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5426 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois