L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 780 résultats.
Offre d'alternance
Alternance Design (H/F)
Amiltone
Publiée le
Design
12 mois
10k-20k €
Villeurbanne, Auvergne-Rhône-Alpes
Vos missions ? En tant qu'alternant designer (H/F) vous assurerez les missions suivantes : - Participer à la définition des nouvelles fonctionnalités ou évolutions des existantes ; - Définir et réaliser les parcours utilisateurs et les maquettes ; - S'assurer de la viabilité des éléments imaginés en les testant ; - Être en lien avec les développeurs pour assurer le transfert des spécifications et la qualité du résultat final. - Assurer une veille active des meilleures pratiques d'UX/UI. - Maquettage sur Figma (Design UI) - Prototypage La Stack technique : - Figma - Portfolio avec vos réalisations
Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake
EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake
3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
Mission freelance
Data Analyst Confirmé
SKILLWISE
Publiée le
Data analysis
3 mois
400-550 €
Île-de-France, France
Réaliser des extractions de données et des analyses ad hoc en réponse aux besoins métiers Produire des études clients & prospects (Marketing, Offre, Jeu Responsable…) Mesurer l’impact business : Arrêt / relancement de jeux Campagnes CRM & digitales Élaborer des bilans d’activité (trimestriels / annuels) : offre, activité joueurs, parcours d’inscription Analyser les phénomènes de cannibalisation et de rémanence Participer à l’exploration de nouvelles sources de données (navigation, tracking…) Votre rôle : Traduire les données en insights clairs et actionnables Formuler des recommandations business pertinentes Garantir la cohérence méthodologique des analyses Assurer la qualité et la fiabilité des données présentées Interagir avec différents interlocuteurs métiers
Mission freelance
SAP BW Data Extraction Azure Consultant - Toulouse
Signe +
Publiée le
Azure
SAP BW
6 mois
400-710 €
Toulouse, Occitanie
Dans le cadre du développement de sa plateforme Data Azure, notre client recherche un(e) Analyste SAP Data Ingestion pour gérer l’intégration des données SAP vers Azure, en lien avec les équipes SAP, Data et Gouvernance. Missions : Recueillir et analyser les besoins d’extraction de données SAP Mettre en place et maintenir les pipelines d’ingestion (Azure Data Factory, Data Lake…) Assurer la qualité et la cohérence des données Gérer les incidents, corrections et le bon fonctionnement des flux Documenter les processus et flux de données Informations complémentaires : Démarrage : ASAP Durée : 6 mois renouvelable Localisation : Toulouse (2 jours de remote par semaine) TJM : Selon profil
Offre d'emploi
Chef de projet MOE DATA (Tableau)
Freelance.com
Publiée le
Python
Tableau Desktop
Tableau software
1 an
40k-70k €
400-550 €
Paris, France
Client : Public Postes : Chef de projet Data (Tableau) Expérience : 8 ans minimum Localisation : Paris Démarrage : Sous 2 semaines Durée : 6 mois renouvelable Missions principales En tant que Chef de Projet TMA DATA , vous serez responsable du : Pilotage opérationnel Coordonner la TMA avec la MOA, les équipes de développement, DevSecOps et les services DTNUM Garantir le bon fonctionnement des deux applications Prioriser et suivre les demandes de maintenance corrective et évolutive Assurer le suivi des performances et proposer des actions d’amélioration Pilotage projet Préparer et animer les comités projet Assurer un reporting régulier auprès de la hiérarchie et du métier Suivre les budgets et engagements financiers Garantir la qualité documentaire et la conformité des livrables Qualité & conformité Superviser les tests, audits, homologations et contrôles réglementaires Veiller au respect des normes RGPD, RGGA et exigences de sécurité Compétences requises : Techniques Maîtrise des architectures applicatives backend / frontend Très bonnes connaissances PostgreSQL et requêtage SQL Maîtrise du progiciel Tableau Maîtrise de GitLab et des outils de gestion de configuration Connaissance des environnements Java / React / Python (lecture, compréhension) Projet Maîtrise des méthodologies Agile et Cycle en V Maîtrise de Jira , Git, gestion d’arborescence projet, documentation Animation de comités projet, pilotage, reporting hiérarchique et métier Suivi budgétaire et financier Pilotage d’équipes de développement Qualité & Conformité Connaissance des tests et audits nécessaires à la mise en service : Métrologie Audit de sécurité RGGA Homologation SSI RGPD Profil recherché Expérience confirmée en chefferie de projet TMA Connaissance solide des environnements Data , Reporting , API , Tableau, Python, Vertica Capacité à travailler en environnement multi‑acteurs (MOA, MOE, DevSecOps, architectes) Excellentes compétences de communication, coordination et pilotage Rigueur, autonomie, sens du service et capacité d’analyse
Offre d'emploi
Data Engineer / Développeur Java Full Stack
AVA2I
Publiée le
Angular
API REST
AWS Cloud
1 an
Île-de-France, France
Dans le cadre du développement de ses plateformes data et applicatives, notre client recherche un Data Engineer / Développeur Java Full Stack afin de renforcer ses équipes techniques. Vous interviendrez sur l’ensemble de la chaîne de traitement de la donnée, de la collecte à la visualisation, dans un environnement moderne orienté microservices, cloud et DevOps . Missions principales 🔹 Développement backend & collecte de données Concevoir et développer des composants en Java (Spring, Hibernate) Mettre en place des modules de collecte de données (API, fichiers, bases de données) Développer et maintenir des API REST/SOAP en respectant les bonnes pratiques (TDD, sécurité) Implémenter des solutions d’authentification ( OAuth2, SSO ) 🔹 Traitement de données (Big Data) Participer à la mise en œuvre de traitements sous Apache Spark 3 Optimiser les pipelines de données (collecte, transformation, distribution) Assurer la performance et la fiabilité des traitements 🔹 Développement Front & DataViz Développer des interfaces utilisateurs en Angular Concevoir des dashboards et rapports sous Power BI Collaborer avec les équipes métier pour valoriser la donnée 🔹 DevOps & Infrastructure Déployer et gérer des applications sur des clusters Kubernetes Participer à l’optimisation des environnements (CI/CD, performance) Collaborer avec les équipes infrastructure pour : le déploiement la gestion des ressources la sécurité applicative 🔹 Qualité & delivery Écrire et maintenir des tests automatisés (Cucumber) Participer au cycle complet de delivery (build, déploiement, mise en production) Assurer le suivi post-production 🔹 Amélioration continue Être force de proposition sur les choix techniques et l’architecture Contribuer à l’amélioration des performances et de la qualité des applications
Offre d'emploi
Architecte Big Data / Expert Databricks (H/F)
SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
6 mois
75k-90k €
700-750 €
Île-de-France, France
Dans un contexte d’accélération des projets data et de modernisation des plateformes analytiques, notre client recherche un Architecte Big Data / Expert Databricks H/F; Votre rôle sera clé pour concevoir des architectures data modernes, optimiser les performances et les coûts, tout en accompagnant les équipes dans leur montée en compétences. Vos missions Concevoir des architectures Big Data / Modern Data Stack robustes et scalables Réaliser des études techniques et cadrages des besoins data Définir et valider des architectures data sur Databricks et AWS Conduire des audits de performance et de code Produire des dossiers d’architecture (6 à 8 par an) Élaborer des supports de formation (10 à 12 par an) Animer des sessions de formation et de montée en compétences Rédiger des comptes-rendus d’audit (4 à 6 par an) Conseiller sur les bonnes pratiques d’optimisation des coûts et des performances
Offre d'emploi
Data Engineer/ Ingénieur Plateforme Datalab H/F
CELAD
Publiée le
40k-48k €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer/ Ingénieur Plateforme Datalab H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez au sein d’une équipe Data en charge de la conception, de l’évolution et du maintien en conditions opérationnelles de plusieurs environnements Data (nouvelles plateformes et systèmes existants). Dans un contexte de transformation, vous contribuez à la mise en place de nouvelles architectures, à la stabilisation des environnements historiques et à la transition des activités du BUILD vers le RUN, avec des enjeux forts de performance, de disponibilité et de fiabilité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Participer à la conception et à la mise en place de nouveaux environnements Data - Finaliser et optimiser des environnements existants (haute disponibilité, performance) - Assurer la montée de version des composants et produits Data - Analyser et résoudre les incidents et problèmes récurrents (RUN) - Contribuer à la rédaction des documents d’architecture (DAT) et documentations techniques - Accompagner la transition BUILD to RUN et assurer le suivi des environnements en production
Mission freelance
Data Engineer industriel
MLMCONSEIL
Publiée le
Dataiku
IBM Maximo
Microsoft Excel
6 mois
100-500 €
Paris, France
Profil Data senior orienté environnement industriel, capable de reprendre, structurer et fiabiliser des données complexes. Maîtrise de SQL, Python et Excel/VBA pour l’analyse, l’automatisation et le reporting. Expérience requise sur Dataiku et IBM Maximo pour l’ingestion, la normalisation et la gestion des données de maintenance. Capacité à comprendre les enjeux métiers (maintenance, référentiels) et à les traduire en modèles de données exploitables. . . . . . . . .
Mission freelance
Expert SQL Sénior / Data Engineer DBT
Signe +
Publiée le
Google Cloud Platform (GCP)
5 mois
280-300 €
Lyon, Auvergne-Rhône-Alpes
🎯 MISSIONS Réaliser la data prep dans le cadre d'un projet d'automatisation des analyses récurrentes Contribuer à l'élaboration d'un cockpit de performance (data prep + data visualisation) Assurer le run quotidien : extraction, automatisation de livrables, création de reporting Renforcer le suivi de performance sur la partie non alimentaire Livrables attendus : Datasets sur BigQuery Classeurs Tableau Analyses + scripts pour le run quotidien 🛠️ ENVIRONNEMENT TECHNIQUE Cloud / Data : GCP, BigQuery Langages / Outils : SQL avancé (gros volumes), DBT Versioning : Git Méthode : Agile / Scrum 👤 PROFIL RECHERCHÉ Expert SQL Senior et/ou Data Engineer DBT confirmé Bac+5 informatique (école d'ingénieur ou université) ou équivalent 7 ans d'expérience minimum en Data Engineering DBT / SQL Expérience retail / grande distribution appréciée Bon communicant, autonome, esprit d'amélioration continue
Mission freelance
Tech Lead Customer Data Cloud
EBMC
Publiée le
SAP
6 mois
300-600 €
France
Dans le cadre d’un projet digital dans le secteur pharmaceutique, nous recherchons un Tech Lead spécialisé SAP Commerce Cloud afin d’accompagner une équipe projet sur des sujets de développement et d’évolution de la plateforme e-commerce. Le consultant interviendra en tant que référent technique sur le périmètre Commerce Cloud, avec pour mission de structurer les travaux, sécuriser les choix techniques et garantir la qualité des livrables. Il participera également à l’encadrement et à la montée en compétence de consultants, tout en contribuant activement aux activités de conception et de delivery.
Offre d'emploi
Service Manager Bases de données relationnelles & Mainframe
VPEX
Publiée le
ITIL
Mainframe
SLA
1 an
Île-de-France, France
Au sein d’une DSI de grande envergure dans le secteur bancaire, vous intervenez en tant que référent(e) Service Manager sur les périmètres Bases de données relationnelles et Mainframe . Vous serez également amené(e) à assurer un rôle de backup sur les activités ML/IA et Big Data. VOS MISSIONS ▸ Garantir la qualité de service du Run (SLA, KPIs, indicateurs fondamentaux) ▸ Coordonner les équipes N1 / N2 / N3 et les prestataires ▸ Gérer les incidents majeurs, crises IT et escalades ▸ Assurer la mise en œuvre et le respect des processus ITIL ▸ Produire les tableaux de bord, rapports de qualité de service et Post-Mortem ▸ Valider le Build to Run ▸ Piloter la démarche d’amélioration continue
Offre d'emploi
Développeur Full Stack H/F
ASTERIA
Publiée le
Angular
Data Lake
Data Warehouse
6 mois
Monaco
Nous recherchons, pour l'un de nos Clients basés sur Monaco, un Développeur Full Stack H/F. VOTRE MISSION : Notre Client recherche un Développeur Full Stack H/F capable d’intervenir sur l’ensemble de la chaîne applicative, de l’interface utilisateur jusqu’aux services backend, dans un environnement cloud natif et containerisé permettant de valoriser des volumes de données complexes. Il devra concevoir et développer des applications intégrant des interfaces utilisateurs modernes et réactives qui s'appuieront sur des API performantes et scalables pour des cas d'usage Data/IA. Il travaillera en étroite collaboration avec les équipes data/IA pour proposer des solutions innovantes et performantes. Il participera également à l'optimisation des flux de travail de données (Data Pipelines Airflow) en collaboration avec l'équipe Data Engineering. Missions principales : Participer à l’analyse des besoins avec le chef de projet et les parties prenantes (UX/UI, métiers) Concevoir, développer et déployer des applications et chaînes de traitements autour de la Data et l'IA Rédiger et maintenir la documentation technique et fonctionnelle Réaliser les tests unitaires, d’intégration et fonctionnels Mettre en place et maintenir des pipelines CI/CD Collaborer étroitement avec les équipes Data & IA et plateforme Assurer le respect des critères qualité, délais, coûts et satisfaction utilisateur Participer aux revues de code et aux bonnes pratiques de développement Contribuer à l’amélioration continue des processus et outils de développement Veiller à la sécurité des applications et à la conformité des données personnelles
Mission freelance
Data Engineer Principal
Nicholson SAS
Publiée le
Architecture
Data analysis
Data Lake
6 mois
550 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon avec une présence sur site requise trois jours par semaine, ce rôle de Data Engineer Principal s’inscrit dans un contexte exigeant mêlant data engineering et machine learning. Démarrage ASAP pour une mission courant jusqu’au 31 décembre 2026. Au sein des équipes produit, le consultant interviendra sur la conception, la construction et la maintenance du data layer ainsi que des plateformes de données. Il sera responsable de la mise en œuvre d’architectures robustes permettant le traitement et l’analyse de volumes de données importants, en garantissant performance, scalabilité et fiabilité. Le poste implique également la gestion des flux de données et des interfaces associées, avec la création et l’intégration de structures optimisées pour l’exploitation analytique. Une attention particulière sera portée à l’industrialisation et au déploiement d’algorithmes performants, dans une logique d’optimisation continue. Le profil recherché justifie d’au moins 7 ans d’expérience, avec une expertise confirmée en data engineering, architecture data, data management et environnements data lake, ainsi qu’une bonne maîtrise des problématiques machine learning.
Offre d'emploi
Chargé (e) d'études Data SAS/SQL/PYTHON
K-Lagan
Publiée le
Python
SAS
SQL
1 an
35k-40k €
350-420 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet data faisait vraiment la différence dans votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets à forte valeur ajoutée, où la donnée est au cœur des décisions métier . Aujourd’hui, nous recherchons un·e Chargé·e d’Études Data / Data Analyst (F/H) pour rejoindre l’un de nos clients du secteur Assurance , basé à Niort . 🔍 Contexte Vous interviendrez sur des sujets data stratégiques, avec pour objectif d’exploiter et valoriser les données afin d’accompagner la prise de décision et optimiser les processus métier. 🎯 Missions Analyser et exploiter des volumes de données importants Développer et optimiser des requêtes SQL Réaliser des traitements et analyses statistiques (SAS / Python) Produire des études et reportings à destination des métiers Garantir la qualité, cohérence et fiabilité des données Participer à l’amélioration continue des outils et processus data
Mission freelance
QA Lead
Byrongroup
Publiée le
Data quality
ERP
KPI
1 an
400-500 €
Île-de-France, France
🎯 Vos missions : • Recueil et formalisation des besoins de test • Challenger pour anticiper les risques qualité • Pilotage des activités de tests : planifier, coordonner et exécuter les campagnes de tests (UAT, E2E...) • Concevoir et maintenir les référentiels de test (plans de test, cas de test, matrices de couverture) • Prioriser les scénarios • Définir les stratégies de validation de la qualité des données • Identifier et analyser les anomalies de données • Collaborer avec les équipes techniques pour la correction des écarts • Vérifier la fiabilité des échanges de données • Pilotage de la qualité et reporting
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1780 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois