L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 182 résultats.
Offre d'emploi
Data Engineer GCP
Publiée le
Apache Airflow
DBT
DevOps
12 mois
40k-48k €
370-420 €
Cesson-Sévigné, Bretagne
Télétravail partiel
Contexte de la mission : Dans le cadre des travaux à réaliser nous recherchons un profil Data Engineer GCP confirmé. Tâches à réaliser : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM) Compétences recherchées : Obligatoires : GCP DBT Big Query Devops Optionnelles : DataStage Expérience nécessaire : 5 années d’expérience sur la plateforme GCP (profil ITS : P22/P23) Langues : Français
Mission freelance
Data Engineer / Expert Big Data – Cloud & On-Prem - Certifié ITIL V4 Obligatoire
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Migration
6 mois
750-800 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe DATA/IA d’une vingtaine de personnes pour accompagner la migration des projets vers des infrastructures modernes on-prem et cloud public (AWS / GCP) ✅ Accompagner les projets dans leur migration vers des architectures modernes (AWS / GCP / on-prem). ✅ Participer à la conception et à la mise en œuvre des infrastructures Data (en lien avec les CloudOps & Architectes). ✅ Paramétrer, configurer et tester les plateformes (performances, résilience, reprise d’activité). ✅ Implémenter le monitoring et l’alerting. ✅ Rédiger les documents d’exploitation et contribuer à la montée en compétence des équipes. ✅ Participer au RUN : gestion des incidents, patching, upgrades et astreintes.
Offre d'emploi
Data Analyst
Publiée le
Google Cloud Platform (GCP)
PL/SQL
Python
1 an
Paris, France
Télétravail partiel
OBJECTIF Le projet est actuellement lancé avec une mise sous contrôle qualité des données critiques et des plans d’action de remédiation avec les systèmes informatiques de gestion. Le département nécessite l’expertise d’un Data Analyst afin d’améliorer l’analyse des données au sein de l’entreprise. Ce poste est essentiel pour interpréter et analyser la qualité des données clés du business et du métier, tout en collaborant étroitement avec les équipes métiers et IT. Le Data Analyst sera en charge de la mise en oeuvre des analyses pour élaborer les contrôles de qualité de données et les KPIs, d’assurer le maintien et les évolutions du Data Quality Dashboard, de participer aux plans d’action de remédiation, en collaboration avec l’équipe Data du département, et avec les responsables informatiques / métiers des applications.
Mission freelance
Data Engineer Talend / GCP
Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
Talend
3 ans
400-530 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de la Data Factory de notre client grand compte, nous recherchons un Data Engineer Talend / GCP expérimenté. Vous interviendrez sur la conception, le développement et l’optimisation de solutions Data destinées à répondre aux besoins analytiques et opérationnels des métiers. Votre rôle sera clé dans la mise en place d’une infrastructure Data performante, fiable et scalable sur Google Cloud Platform . Missions principales Analyser les besoins métiers et leurs impacts sur la donnée Concevoir et développer des pipelines de données robustes et évolutifs avec Talend et les services GCP (BigQuery, DataForm, Dataflow, Pub/Sub, Cloud Composer) Optimiser la performance et la scalabilité des solutions existantes Collaborer avec les architectes, Product Owners et Data Analystes pour garantir la qualité et la cohérence des données Maintenir une documentation technique claire et complète Mettre en place le monitoring et les contrôles d’intégrité des pipelines Participer à la recette technique et fonctionnelle des livrables Assurer la maintenance corrective et évolutive des traitements en production Garantir la conformité des développements avec les bonnes pratiques Data et Cloud
Offre d'emploi
Data Engineer (H/F)
Publiée le
Big Data
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
480-580 €
Paris, France
Télétravail partiel
La Direction Technique du Numérique pilote des projets transverses en collaboration avec la Direction Data, dont la mission est de faire de la donnée un levier de performance et d’aide à la décision. L’équipe Gold Pilotage , composée d’un Product Owner et de deux Data Ingénieurs, développe et maintient la solution Data4All , un produit destiné à la centralisation et à la diffusion des données analytiques via des dashboards et des reportings internes. Objectifs de la mission Le Data Ingénieur interviendra sur : La conception, la mise en production et la maintenance de pipelines data robustes et scalables. Le développement de modèles de données et l’organisation du stockage. La qualité, la fiabilité et la gouvernance des données. La mise en place et la maintenance des workflows CI/CD. L’industrialisation des traitements via des infrastructures scalables et sécurisées. Le partage de bonnes pratiques et la mise à jour continue de la documentation.
Offre d'emploi
ML Ops
Publiée le
BigQuery
Google Cloud Platform (GCP)
MLOps
12 mois
40k-59k €
400-600 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e ML Ops pour une grande entreprise internationale ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience en tant que ML Ops/Data Scientist ; tu maîtrises MLflow ou outils similaires ; tu as déjà travaillé dans un environnement GCP/BigQuery ; tu as un anglais professionnel. Tes missions … ✨ Définir et mettre en œuvre un cadre de bonnes pratiques ML Engineering (tests, qualité, versioning, monitoring…) ✨ Concevoir, construire et maintenir des modèles de Machine Learning en lien avec les Data Scientists ✨ Industrialiser les modèles via des pipelines de ré-entraînement, d’évaluation et de déploiement automatisés ✨ Contribuer à la roadmap produit ML : arbitrages techniques, exploration technologique, priorisation ✨ Développer des systèmes de monitoring en temps réel pour la supervision des modèles et des flux de données ✨ Enrichir la plateforme ML avec de nouveaux outils et composants (frameworks, patterns, modules d'observabilité…) ✨ Participer activement à la vie agile de l’équipe (rituels, pair programming, veille technologique) ✨ Porter les bonnes pratiques ML en transverse auprès des autres entités du groupe, en France et à l’international ✨ Accompagner les Data Scientists dans la montée en maturité technique, notamment sur les pratiques de software engineering ✨ Garantir la qualité du code produit et participer à son amélioration continue TT: 2 jours par semaine. Démarrage: rapide. Relation: CDI ou freelance. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Mission freelance
Data ingénieur ( H/F) - Full remote
Publiée le
Apache Spark
Big Data
Google Cloud Platform (GCP)
1 an
370-500 €
France
Télétravail 100%
Contexte de la mission : Intégrez une équipe BI dédiée aux données de la relation client. Vous travaillerez dans un environnement en pleine transformation, avec une migration vers le cloud GCP en cours. Vos responsabilités : Intégrer une équipe agile et contribuer à la gestion et à l’évolution des données BI orientées CRM. Participer à la migration des environnements BI traditionnels vers GCP . Développer, maintenir et optimiser les flux de données (SQL, Big Data). Assurer la qualité, la performance et la fiabilité des traitements. Collaborer avec les équipes métiers et techniques pour répondre aux besoins de reporting et d’analyse.
Offre d'emploi
Administrateur de bases de données H/F
Publiée le
Google Cloud Platform (GCP)
Oracle
PostgreSQL
1 an
40k-50k €
450-550 €
Nancy, Grand Est
Nous recherchons pour l’un de nos clients un Administrateur base de données H/F à Nancy pour une mission démarrant dès que possible. Vous gérer et administrer les systèmes de gestion de données de l'entreprise, en assure la cohérence, la qualité et la sécurité. Vous participez à la définition et à la mise en œuvre des bases de données et des progiciels retenus par l'entreprise Vos missions : · L’administration, la sauvegarde, la restauration et l’optimisation de bases de données et plateformes data dans le respect des processus client on premise et cloud. · La gestion des incidents et participe à la résolution des problèmes · Installation, configuration, maintenance et évolution des plateformes (Greenplum, couchbase et elasticsearch, etc) · Maintien en conditions opérationnelles des plateformes · Suivi et amélioration des performances (mémoire, disques, index, requêtes), · Stratégies de sauvegarde, restauration et supervision · La gestion des accès et création des comptes autorisés à se connecter aux plateformes · De la veille technologique · La gestion documentaire du périmètre · Astreinte Les livrables attendus sont : · Scripts · Schémas techniques · Documentation technique
Mission freelance
Data Engineer Senior Secteur Media
Publiée le
Apache Airflow
Apache Spark
BigQuery
6 mois
520-640 €
Île-de-France, France
Télétravail partiel
Contexte et détails de la mission Définition du besoin La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestations attendues : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances de data engineering • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Modalités de la prestation : Présence sur site requise en fonction des besoins de la prestation et a minima équivalente à 50% du temps de la prestation. Astreintes week-end et jours fériés : Non Matériel performant à fournir par le prestataire : Pour ce faire, les postes informatiques utilisés par le prestataire lors des prestations doivent avoir : - Un antivirus à jour et activé - Un mécanisme de chiffrement du disque activé - Un système d'exploitation à jour de ses correctifs de sécurité - Un mécanisme de verrouillage du poste activé - Un moyen de stockage sécurisé des mots de passe. Usage de la langue française : L'exécution de chaque marché spécifique nécessite l'usage principal et permanent de la langue française dans les rapports avec les parties prenantes (documents, réunions, appels téléphoniques, courriers électroniques…). Les personnes en charge de l‘exécution des prestations doivent maîtriser parfaitement le français (et toute autre langue qui serait précisée après information dans le DCE du marché spécifique concerné) dans le contexte et environnement.
Offre d'emploi
Ingénieur DevOps GCP/MLOps
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
MLOps
1 an
48k-50k €
480-510 €
Île-de-France, France
Télétravail partiel
Dans le cadre de projets stratégiques orientés Data & Intelligence Artificielle, nous recherchons un Ingénieur DevOps GCP/MLOps intervenant sur l’ensemble du cycle de vie des solutions : design, build et run . Vous intégrerez une équipe dédiée au périmètre DATA, en collaboration étroite avec les squads métiers. ✅ Vos missions Conception, gestion et automatisation d’infrastructures Cloud sur GCP Mise en place et optimisation de chaînes MLOps : collecte et préparation de la donnée, feature engineering, entraînement, déploiement, monitoring et amélioration des modèles Industrialisation des pipelines CI/CD et automatisation des déploiements Maintien en condition opérationnelle des plateformes et applications Gestion du cycle de vie applicatif Analyse et résolution d’incidents d’infrastructure Rédaction des procédures et documentation technique ✅ Profil recherché Expérience confirmée en tant qu’Ingénieur DevOps ou MLOps sur GCP (obligatoire) Maîtrise de Terraform (y compris en environnement restreint / air-gapped idéalement) Solides compétences en scripting, automatisation et normalisation Connaissance des pratiques CI/CD, observabilité et monitoring Capacité à intervenir en production (MCO / MEP) ✅ Environnements techniques Cloud : GCP (AWS apprécié) MLOps / IA : Kubeflow, TensorFlow, PyTorch, notebooks, Python Containerisation & orchestration : Kubernetes, Docker, ArgoCD, EKS (atout) CI/CD : Jenkins, Helm, Artifactory, Container Registry IaC : Terraform Monitoring & logs : ELK, OpenSearch, Grafana, Cloud Monitoring / Logging ✅ Soft Skills Rigueur, autonomie et sens du service Aisance relationnelle et travail en équipe Réactivité, partage et communication Gestion du stress et capacité de conseil
Mission freelance
Data Engineer GCP (Rouen)
Publiée le
Google Cloud Platform (GCP)
1 an
400-550 €
Rouen, Normandie
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Rouen, je suis à la recherche d'un Data Engineer GDP. Objet de la prestation : L’objet du présent marché est une prestation d’accompagnement : Poste : Data Engineer - GCP Niveau d’expérience : au moins 3 ans Contenu de la prestation : Au sein de la DATAFABRIC, vous intégrerez une des équipes de développement agile composées de 5 à 7 Data Engineer qui travaille en lien avec le TechLead. Vous assurerez aussi le build et le run des traitements livrés en production sur la plateforme GCP Missions principales : • Analyse, Conception et Modélisation • Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). • Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données • Réaliser la recette technique • Assurer la qualité avec des tests de non-régression Savoir-être : • Sens du résultat et respect de l’engagement • Capacité à travailler en équipe Suivi de la prestation : Le représentant du fournisseur et de Matmut établiront une méthode du suivi de la prestation pour préciser si la prestation est au niveau attendu selon les indicateurs de performance et le fréquence définis au début de la prestation (respect des délais, qualité des livrables, etc.).
Offre d'emploi
Data Architecte - Lyon
Publiée le
AWS Cloud
Azure
Databricks
60k-70k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Developpeur Fullstack JAVA/ANGULAR/GCP h/f
Publiée le
Apache Kafka
Cloud
Git
3 ans
40k-45k €
360-390 €
Annecy, Auvergne-Rhône-Alpes
Télétravail partiel
🚀 Nous renforçons nos équipes en Île-de-France ! Nous recherchons 2 profils seniors passionnés pour travailler sur un projet stratégique pour notre client, avec possibilité de télétravail partiel. 📌 Profils recherchés : 1️⃣ Développeur / / 2️⃣ Développeur / 🎯 Séniorité : Minimum 3 ans d’expérience ⌚ Démarrage : ASAP 📍 Localisation : Île-de-France Compétences communes exigées : 👉Maîtrise d‹e , , et principes 👉Maîtrise des bases de données / NoSQL 👉Expérience sur projets / Event-driven / Streaming data 👉Connaissances sur , Storage, , ou 👉Anglais opérationnel 👉La maîtrise du cloud est impérative 💡 Vous êtes passionné par le développement cloud et les architectures modernes ? Rejoignez-nous et participez à un projet à fort impact ! N'hesitez pas à nous envoyer votre candidature sur 📩
Mission freelance
Chef de projet technique Data plateforme - Nantes
Publiée le
Agile Scrum
AWS Cloud
Azure
1 an
400-550 €
Nantes, Pays de la Loire
Tâches : Cadrer les différents travaux à réaliser en apportant un regard externe en mettant en lumière les éléments suivants : Besoins utilisateurs et cas d’usage Identification des données Schéma d’architecture Solutions intermédiaire et cible, chiffrées Exigences relatives à la gouvernance des données et à la conformité (cyber, …) Trajectoire de mise en œuvre • Piloter et coordonner les différents interlocuteurs intervenant dans le projet de mise en œuvre de la plateforme Data, de la phase de conception à la mise en production. • Coordonner les équipes techniques et fonctionnelles (Data Engineers, Data Analysts, Product Owners, Architectes, equipe Data métier et spécialisées…). • Garantir la qualité, la cohérence et la disponibilité des données nécessaires au pilotage e-business. • Définir et suivre le backlog produit Data en lien avec les équipes métier et techniques. • Piloter la réalisation à l’aide des outils internes (Jira Align). Attendu : Accompagner la mise en place d’une plateforme Data au service du pilotage e-business d’une entité spécialisée dans l’accélération digitale et e-business. Vous interviendrez en tant que Chef de projet technique Data, au sein d’une organisation agile et transverse, pour coordonner et piloter la construction, l’intégration et la mise à disposition d’une solution Data.
Offre d'emploi
Architecte Solution - Architecture cloud (AWS, Azure, GCP)
Publiée le
Big Data
Cloud
3 ans
Île-de-France, France
Télétravail partiel
Responsabilités principales Architecture fonctionnelle Collaborer avec les équipes produit pour recueillir et clarifier les besoins métiers. Travailler en équipe avec les architectes d’entreprise et les architectes data pour résoudre des problématiques métier. Analyser les systèmes existants et le code source afin de comprendre les processus actuels. Documenter les besoins fonctionnels et l’architecture dans Confluence. Réaliser une analyse des écarts entre les systèmes existants et les nouveaux besoins métiers. Concevoir des architectures fonctionnelles modulaires, évolutives, ainsi que des stratégies de transition. Définir les points d’intégration pour un fonctionnement en parallèle avec les systèmes existants. Architecture technique Sélectionner les technologies appropriées via des POC (Proof of Concept) et des benchmarks. Concevoir et mettre en œuvre des architectures techniques robustes et évolutives. Garantir la cohérence entre les conceptions fonctionnelles et techniques. Réaliser des revues de code afin de faire respecter les standards architecturaux. Supervision de la mise en œuvre Suivre l’avancement du développement et veiller au respect des lignes directrices architecturales. Accompagner les équipes dans la résolution des défis techniques et l’optimisation des performances. Profils recherchés Expérience requise : 10 ans ou plus dans les domaines suivants Architecture full-stack : infrastructure, données, microservices et front-end. Conception d’API, de plateformes web et d’applications mobiles dans les secteurs du crédit, de l’assurance ou de la conformité. Stratégie, intégration et orchestration des données. Maîtrise des applications supportant le big data, idéalement dans un environnement B2B. Conception et mise en œuvre de moteurs de règles. Migration et modernisation d’infrastructures (on-premise / cloud). Leadership agile et coordination de développements externalisés. Environnement réglementé (services financiers, assurance, etc.). Sécurité, conformité et gestion des incidents.
Mission freelance
Développeur ETL / Data Engineer (DataStage, Unix, Control-M)
Publiée le
AWS Cloud
Azure
CI/CD
1 an
Montréal, Québec, Canada
Télétravail partiel
📌 Mission Freelance – Développeur ETL / Data Engineer (DataStage, Unix, Control-M) 🎯 Contexte de la mission : Dans le cadre d’un programme stratégique d’industrialisation et de modernisation de nos chaînes de traitement data, nous recherchons plusieurs Développeurs ETL / Data Engineers maîtrisant DataStage, Unix et Control-M. Un des profils recherchés devra assurer un rôle de Lead Technique sur le développement (pas de gestion projet — un encadrement existe déjà). 🛠️ Compétences techniques requises Obligatoires : Expertise IBM DataStage (développement, optimisation, debugging, bonnes pratiques ETL) Très bonne maîtrise Unix/Linux (bash/ksh, scripts, automatisation) Compétence avérée Control-M (ordonnancement, dépendances, troubleshooting) SQL avancé (optimisation, analyse de performances) Pratique d’outils de versioning (Git, RTC), CI/CD, intégration & déploiements Souhaitées Python ou Java pour automatisation / outils internes Connaissances Data Lake / Data Warehouse Notions Cloud (Azure, AWS ou GCP) 🎯 Rôle & Responsabilités Pour les développeurs : Concevoir, développer et maintenir des jobs ETL sous DataStage Implémenter des scripts Unix et automatisations Intégrer et opérer les chaînes de traitement sous Control-M Analyser les performances, optimiser et fiabiliser les pipelines Participer aux déploiements et aux revues de code Contribuer à la mise en place des bonnes pratiques de développement Pour le Lead Développement : Encadrer techniquement les autres développeurs ETL Assurer la qualité du code, des jobs et des livrables Être point d’escalade pour les problématiques techniques DataStage/Control-M Réaliser des revues techniques, challenger les designs et améliorer les patterns ETL
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Quel logiciel de compta en ligne avez vous choisi et pourquoi ? Avec quel compte pro en ligne ?
- Passage sasu à eurl: transition mutuelle/prévoyance
- Meilleure banque pour compte pro
182 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois