L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 854 résultats.
Offre d'emploi
Data Architect / Data Engineer (H/F)
Publiée le
Cloud
1 an
La Défense, Île-de-France
Télétravail partiel
Nous recherchons un profil technique pour accompagner des projets data stratégiques au sein d’un acteur spécialisé dans la transformation et l’architecture des systèmes d’information. Vos missions Concevoir et faire évoluer des architectures data modernes (cloud, data lake, data warehouse, data mesh… selon les projets). Définir les standards et bonnes pratiques d’ingénierie des données. Concevoir, développer et optimiser des pipelines de données robustes et industrialisés. Participer aux choix technologiques et contribuer à la mise en place d’une gouvernance data efficace. Collaborer avec les équipes projet (data engineers, data analysts, product owners…) pour garantir la qualité et la fiabilité de la donnée. Compétences recherchées Maîtrise d’un ou plusieurs environnements cloud : AWS, Azure ou GCP. Expérience avérée en conception d’architectures data (batch, streaming, event-driven…). Solide pratique des langages et écosystèmes data : Python, SQL, Spark, DBT, Kafka, Airflow… Bonne compréhension des modèles de stockage et de traitement (Delta Lake, BigQuery, Snowflake…). Connaissance des bonnes pratiques de CI/CD, observabilité, sécurité et gouvernance data. Profil 3 à 7 ans d’expérience en data engineering ou en architecture data. Capacité d’analyse, rigueur technique et vision d’ensemble des systèmes de données. Aisance en communication et capacité à travailler en équipe sur des projets multidisciplinaires. Ce que nous offrons Participation à des projets à forte valeur ajoutée. Environnement orienté expertise, innovation et montée en compétences. Culture technique stimulante et possibilités d’évolution.
Mission freelance
Tech Lead Data Engineer - IoT / Java & Cloud
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
12 mois
720-730 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
Offre d'emploi
Project Quality Engineer - Ferroviaire H/F
Publiée le
40k-50k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Contexte de la mission : Viveris accompagne ses clients dans la conception et la fabrication d'équipements de haute technologie destinés au secteur normé ferroviaire. Dans ce cadre, nous recherchons un Project Quality Engineer, chargé d'assurer la conformité, la robustesse et la traçabilité des activités de développement tout au long du cycle projet. Intégré au sein de l'équipe de la Direction de la Qualité Projet, vous jouerez un rôle clé dans le pilotage qualité des développements logiciels et systèmes, en lien avec les exigences normatives du domaine ferroviaire. Responsabilités : - Accompagner les équipes projet pour garantir la conformité des activités de développement aux standards qualité internes et clients ; - Participer à la définition et à la gestion des exigences système et logicielles, assurer leur traçabilité et leur cohérence ; - Suivre la gestion de configuration des livrables techniques (logiciel, documentation, exigences) ; - Participer aux revues d'ingénierie et piloter les plans d'actions correctifs liés à la qualité ; - Réaliser des audits internes et revues de conformité, proposer des axes d'amélioration continue.
Offre d'emploi
Data Engineer (14)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Informations Générales Contexte de la Mission Rattachement Direction Data (Direction du Numérique). Intégration à l'équipe Gold Pilotage (PO + 2 Data Engineers) en charge de la mise à disposition des données pour le pilotage des offres numériques via le produit Data4All. Stack : Python, SQL, dbt, BigQuery, Airflow, Terraform/Terragrunt, services GCP. Activités Attendues Maintenir et faire évoluer Data4All et les dispositifs de l'équipe ; qualité des données et support aux utilisateurs. Concevoir & maintenir des modèles de données et pipelines robustes et scalables ; organiser/structurer le stockage. Mettre en place et maintenir des infrastructures scalables, assurer sécurité/stabilité des environnements, workflows CI/CD. Contribuer à la gouvernance (qualité, fiabilité, intégrité), documentation et veille ; participation aux instances Data Ingénieurs.
Mission freelance
Développeur Laravel - Confirmé - freelance - Rouen (76) H/F
Publiée le
1 mois
76000, Rouen, Normandie
Télétravail partiel
ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | Chez Artemys , on crée un univers où l’humain passe avant tout . Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Notre client souhaite faire évoluer son extranet client en ajoutant de nouvelles fonctionnalités et en améliorant les modules existants. Pour cela, nous recherchons un développeur autonome, capable de prendre en charge rapidement les sujets qui lui seront confiés, d’analyser les besoins et de proposer des solutions techniques adaptées. Votre mission (si vous l’acceptez) : Participer à la réécriture complète de l’application back-end avec Laravel Implémenter les nouvelles fonctionnalités métier définies avec l’AMOA et le PO Travailler en binôme avec les développeurs React JS sur les flux front/back Contribuer à la mise en place des bonnes pratiques de développement, sécurité et performance Participer aux cérémonies agiles (daily, sprint planning, etc.) L’environnement technique : Back-end : Laravel (version récente) Front-end : React JS (collaboration étroite avec l’équipe front) Base de données : MariaDB / SQL Server Architecture SaaS multi-tenant Recherche ElasticSearch intégrée à l’application Vous avez une expérience en tant que développeur back-end avec au moins 3 à 5 ans d’expérience sur Laravel. Vous avez une solide compréhension des API REST, de l’architecture logicielle et des enjeux back-end. Vous avez la capacité de vous intégrer dans une équipe projet structurée et à dialoguer avec les autres profils (AMOA, dev front, architecte…). Une première expérience SaaS est un plus à votre candidature. Les attendus concernant le savoir-être : Autonomie, rigueur et bon esprit d’équipe Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : TJ : en fonction de votre expérience sur un environnement similaire. Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Offre d'emploi
DATA ENGINEER GCP (480€ MAX)
Publiée le
Google Cloud Platform (GCP)
3 mois
40k-81k €
370-480 €
Paris, France
Télétravail partiel
• Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery • Expériences intégrant les langages Python et SQL • Expériences intégrant PySpark • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques 1 . Déployer les cas d’usages en lien avec la personnalisation de l’expérience utilisateur 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets
Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Offre d'emploi
Data Engineer H/F
Publiée le
45k-55k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un(e) data engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : a5057rwa3n
Mission freelance
Chef de projet géomarketing
Publiée le
CRM
Data analysis
Data governance
12 mois
520-600 €
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) chef de projet Géomarketing pour piloter l’industrialisation de nos outils géomarketing et la mise en place d’un reporting KPI efficace, afin de renforcer la prise de décision et l’optimisation des opérations commerciales et logistiques. Missions principales : Industrialisation des outils géomarketing Analyse des besoins métiers et identification des outils existants. Standardisation et automatisation des processus géomarketing. Déploiement de solutions adaptées aux différentes entités du groupe. Formation et accompagnement des utilisateurs internes. Mise en place de reporting KPI Définition et structuration des indicateurs clés de performance (KPI) géomarketing. Création de tableaux de bord interactifs et automatisés pour le suivi des activités. Mise en place de processus de collecte, de consolidation et d’analyse des données. Pilotage de la performance et identification des leviers d’optimisation. Pilotage de projets transverses Coordination avec les équipes commerciales, marketing, logistique et IT. Suivi du planning, des coûts et des livrables. Garantir la qualité et la fiabilité des données utilisées dans les analyses. Profil recherché : Expérience confirmée en géomarketing et gestion de projets data / BI. Maîtrise des outils SIG (QGIS, ArcGIS…) et des solutions de data visualisation (Power BI, Tableau…). Bonne compréhension des enjeux commerciaux et logistiques dans un contexte multi-pays. Capacité à industrialiser des processus et à créer des reportings automatisés. Esprit analytique, rigueur et sens de la communication. Livrables attendus : Outils géomarketing industrialisés et documentés. Tableaux de bord KPI opérationnels et automatisés. Processus standardisés pour le suivi de la performance géomarketing.
Offre d'emploi
QA Automation Engineer Mobile & Web
Publiée le
QA
50k-60k €
Paris, France
Télétravail partiel
Missions : · Définir et piloter la stratégie de tests automatisés (mobile, web, API) · Concevoir, développer et maintenir des tests end-to-end couvrant l’ensemble de l’expérience utilisateur (frontend mobile/web + backend) · Automatiser les tests mobile (iOS & Android) à l’aide de WebdriverIO + Appium · Mettre en place des tests API : créer et gérer des collections, écrire des tests d’intégration et de non-régression · Intégrer les tests dans les pipelines CI/CD (GitHub Actions, GitLab CI..) · Collaborer avec les équipes produit, dev (backend / mobile / web) pour identifier les scénarios critiques à automatiser · Analyser les résultats des tests, remonter les bugs, proposer des améliorations · Participer à la documentation des pratiques QA et à la montée en compétences de l’équipe · Aider à stabiliser les builds et réduire la “dette test” via la refactorisation des tests
Offre d'emploi
Data Engineer Cloud IA / recrutement POEI
Publiée le
38k-45k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Vos principales missions seront : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data afin d'automatiser les processus métier • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 68g71iyjy2
Offre d'emploi
Data Engineer H/F
Publiée le
45k-55k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) data engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 0tm07z0lov
Offre d'emploi
Data engineer / expert Talend
Publiée le
AWS Cloud
Azure
Data Warehouse
1 an
40k-50k €
450-600 €
Île-de-France, France
Télétravail partiel
Dans le cadre de missions à venir en cours de qualification, nous recherchons dès maintenant des consultants Data Engineer Talend (CDI ou Freelance) prêts à rejoindre nos équipes dès que possible. Exemples de missions à venir : Conception, développement et optimisation de flux ETL avec Talend (Open Studio ou Talend Data Integration) Intégration et transformation de données issues de sources variées (bases SQL/NoSQL, API, fichiers plats, ERP…) Mise en place de pipelines de données fiables et performants Optimisation des performances et gestion des volumes importants de données Participation à la définition et à la mise en œuvre d’architectures Data (Data Lake, Data Warehouse, Cloud)
Mission freelance
Senior Azure IAM Engineer M/W - Gosselies
Publiée le
Microsoft Entra ID
Powershell
3 mois
400-550 €
Gosselies, Hainaut, Belgique
Télétravail partiel
Dans le cadre de ses activité, notre client recherche un Ingénieur IAM Azur senior H/F pour une mission en freelance. Mission Vos missions en tant que tel: * Collecter et analyser les permissions existantes dans Azure (Management Groups, Subscriptions, Resource Groups). * Supprimer les héritages de droits non souhaités depuis le Management Group Root. * Implémenter des modèles de rôles RBAC sécurisés et adaptés aux besoins métiers. * Automatiser les audits et les revues d’accès via PowerShell, Azure CLI. * Monitorer les usages des rôles à privilèges (Owner, Global Admin, etc.) et proposer des remédiations. * Collaborer avec les équipes IAM, I&O et sécurité pour intégrer les rôles dans les workflows existants. * Documenter les rôles, les règles d’héritage, et les processus d’attribution. * La surveillance et reporting des journaux d'activité (Audit Logs) pour la détection d'anomalies et violations de sécurité.
Offre d'emploi
Data Engineer Microsoft Fabric (Azure Cloud) - Bruxelles
Publiée le
BI
Data Lake
Microsoft Fabric
9 mois
40k-45k €
540-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre de la modernisation de l'entrepôt de données de notre client , nous recherchons un Data Engineer expérimenté pour accompagner la migration vers Microsoft Azure et l’adoption de Microsoft Fabric et Power BI . Mission : Concevoir et développer des flux ETL dans Microsoft Fabric (Dataflows Gen2, Pipelines, Notebooks PySpark). Modéliser les données pour le BI selon Kimball / Snowflake (tables de faits, dimensions, agrégats). Assurer la qualité, fiabilité et performance des flux de données et mettre en place le monitoring. Automatiser les déploiements via CI/CD (Azure DevOps ou GitHub). Collaborer avec l’équipe ICT pour assurer la cohérence et la gouvernance des systèmes.
Offre d'emploi
Infrastructure Engineer Expert – File Transfer
Publiée le
Scripting
18 mois
10k-40k €
100-400 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure, Infrastructure Engineer Spécialités technologiques : Infrastructure, Virtualisation, Reporting, Managed File Transfer, MFT Compétences Technologies et Outils TCP/IP Apache Tomcat AWS Linux VMware SFTP Azure Axway Synchrony Python Windows http PowerShell ServiceNow Méthodes / Normes ITSM ITIL KPI Description et livrables de la prestation La prestation consiste à assurer l’expertise, l’exploitation et l’évolution des plateformes de transferts de fichiers managés (MFT) dans un environnement critique du secteur bancaire & assurantiel. Le prestataire garantit la disponibilité, la sécurité et la performance des flux inter-applicatifs, tout en accompagnant les équipes internes dans la mise en œuvre, la résolution d’incidents complexes, l’automatisation et l’amélioration continue. La mission inclut également la participation aux projets d’intégration, aux montées de versions et à la modernisation des solutions. LIVRABLES 1. Exploitation & Support Suivi et supervision des plateformes MFT Résolution d’incidents N2/N3 et analyses RCA Reporting d’activité et KPI 2. Techniques & Automatisation Scripts d’automatisation Documentation technique (procédures, configurations, runbooks) 3. Projets & Intégration Spécifications techniques Dossiers d’implémentation et de mise en production 4. Qualité & Conformité Mise à jour des procédures ITIL / sécurité Respect des standards internes 5. Transfert de Compétences Sessions de knowledge transfer Supports de formation Expertise souhaitée Maîtrise confirmée des plateformes Managed File Transfer (MFT), notamment Axway Synchrony (Gateway, Integrator, PassPort, Sentinel, CFT, Secure Transport). Compétences avancées sur Stonebranch Universal Agent (UAC, UDM, UEM, UCMD). Excellente connaissance des protocoles de transfert : SFTP, PeSIT. Solides compétences système sur environnements Linux et Windows. Connaissance des serveurs applicatifs : Apache Tomcat, Apache HTTP. Bon niveau en scripting (Shell, PowerShell, Python…). Maîtrise des concepts réseau (TCP/IP), virtualisation (VMware) et Cloud (Azure/AWS). Expérience de l’environnement ITIL et des outils ITSM (ServiceNow). Capacité à résoudre des incidents complexes, sécuriser des flux critiques et industrialiser des processus. Expérience en contexte international et environnement à fortes contraintes opérationnelles.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
854 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois