L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 23 résultats.
Mission freelance
Lead data en Ile de France
Publiée le
Apache Airflow
AWS Cloud
DBT
6 mois
Île-de-France, France
Télétravail partiel
NOUVELLE OPPORTUNITÉ – MISSION FREELANCE Je recrute un(e) TECH LEAD / LEAD DATA pour un client final. Démarrage : début janvier Localisation : Ile de France/ hybride Durée : mission longue, renouvelable Profil recherché Expérience confirmée en TECH LEAD / LEAD DATA => Stacks techniques obligatoires : SQL / Environnement Cloud (AWS) / Snowflake / dbt / Airflow / => BI / Dataviz (ex : Tableau ou équivalent) Solide background technique (Data / Cloud / Engineering) À l’aise avec les enjeux d’architecture, qualité et delivery Responsabilités clés Co-pilotage de l’équipe (priorisation, planification, animation) Binôme étroit avec le Product Owner Encadrement de Data Engineers (internes & externes) Mise en œuvre des bonnes pratiques (DevOps, qualité, FinOps, RUN) Cadrage, découpage et estimation des sujets Data Choix d’architectures et de modélisation Data Livraison des produits dans le respect des délais et standards Gestion des incidents, communication et escalade des risques Contribution à la dynamique collective et aux instances Data/Engineering Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner
Mission freelance
Tech Lead MDM & Expert SEMARCHY xDM & SSIS
Publiée le
Master Data Management (MDM)
MySQL
3 ans
400-600 €
Paris, France
Télétravail partiel
le client accélère sa transformation digitale ! Pour valoriser pleinement ses données et soutenir ses ambitions stratégiques, le groupe crée une nouvelle Direction DATA et FLUX, rattachée à la DSI. Rejoignez-nous au sein de cette équipe dynamique et participer à la mise en place d’une nouvelle solution de Master Data Management du SI client, véritable moteur de la transformation de nos métiers en France comme à l’international. Votre mission En tant que Tech Lead MDM, vous aurez à prendre en charge le déploiement de la nouvelle solution MDM qui s’appuie sur la solution : - SEMARCHY xDM Vous êtes garant de la définition de l’architecture cible, du déploiement de la solution dans le cloud client en container sur AKS, de l’accompagnement à la mise en place des premiers cas d’usage, du Maintien en Condition Opérationnelle (MCO), dans le respect des engagements de qualité de service et de sécurité. Au quotidien, vous : - Pilotez les demandes de services, les droits d’accès, et gérez-les incidents/problèmes complexes. - Accompagnez et assistez les utilisateurs ainsi que vos collègues pilotes opérationnels pour une utilisation optimale de la plateforme. - Supervisez le fonctionnement quotidien des applications, en lien étroit avec les responsables métiers : surveillance des traitements, interfaces, performance, etc. - Coordonnez les actions des fournisseurs et prestataires externes (TMA/TME), fixez les priorités et contrôlez la qualité des livrables. - Menez certains projets d’évolution applicative : recueil du besoin, rédaction des spécifications fonctionnelles, pilotage du développement. - Analysez les indicateurs de performance et de satisfaction, proposez des plans d’action et participez activement à l’amélioration continue et à la sécurité des applications. Votre profil - Formation supérieure (Bac+5 minimum), idéalement en Systèmes d’Information. - Expérience d’au moins 2 ans sur un poste similaire et une solide expérience sur la solution SEMARCHY. - Excellentes qualités relationnelles, leadership et sens du travail en équipe. - Esprit d’analyse, rigueur, pédagogie et empathie sont vos atouts. - Bonne capacité de communication, essentielle pour collaborer efficacement avec les différents services SI.
Mission freelance
Consultant Tech Lead Databricks Clermond Ferrand
Publiée le
Databricks
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un Consultant / Tech Lead Data expérimenté pour rejoindre notre équipe basée à Clermont-Ferrand . Vous interviendrez en tant que référent technique sur nos projets Data, en particulier autour de l’écosystème Databricks et de la plateforme Microsoft Azure . Piloter techniquement les projets Data et accompagner les équipes dans la montée en compétences. Concevoir, développer et optimiser des pipelines de données sous Databricks . Mettre en œuvre des architectures Data sur Azure (Data Lake, Data Factory, Synapse…). Développer, transformer et industrialiser les traitements Spark .
Mission freelance
Data engineer senior/Tech lead Migration IDQ Fabric (F/H) - 75
Publiée le
Databricks
Microsoft Fabric
PySpark
12 mois
400-770 €
Paris, France
Télétravail partiel
Notre client migre ses flux ETL d’Informatica vers Microsoft Fabric pour ses besoins en data ingestion et analytics. Le projet concerne principalement le domaine Finance, avec un modèle pivot centralisant contrats, positions, instruments de couverture, flux futurs, contreparties et données de marché. Environnement technique : * ESB (Software AG), * ETL (Informatica), * Data Platform (Fabric/Power BI) Mission En tant que Tech Lead Data, vous serez responsable de : * Définir les standards techniques (Fabric, Spark, Python) et bonnes pratiques de développement. * Piloter la migration des flux Informatica vers Fabric : * Évaluer l’existant (flux, modèles pivots, dépendances). * Concevoir le framework d’ingestion/transformation (Spark, Notebooks). * Mettre en place la CI/CD (Azure DevOps/GitHub). * Assurer le monitoring et la qualité des données. * Encadrer une équipe de 3 Data Engineers (mentorat, optimisation des performances). * Collaborer avec les équipes métiers (Finance/Risque) et l’architecture IT.
Offre d'emploi
Ingénieur(e) Production AWS
Publiée le
Agile Scrum
AWS Cloud
GitLab CI
1 an
40k-82k €
500-960 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre du projet Data de l'un de nos clients, nous recherchons un Ingénieur Production Data chargé d’assurer le lien entre les environnements Infra/DevOps sur AWS et les plateformes Big Data, en coordination avec l’architecte cloud, le tech lead et les data engineers. Missions principales : Administration et exploitation de la plateforme Data : Assurer l’administration des composants clés de la plateforme Data (Dataiku & CloudBeaver) Garantir la disponibilité, la performance et l’évolution des environnements d’analytique et de data science. Accompagner les utilisateurs dans la mise en œuvre des bonnes pratiques et l’industrialisation des projets métiers. Evolution et gérer le maintien en conditions opérationnelles de l’environnement analytics et data science axé sur Dataiku (DSS, Fleet Manager, Spark sur EKS) Accompagnement utilisateurs sur les best practices et l’industrialisation des projets métiers. Support et expertise technique : Prise en charge de la résolution des incidents affectant les environnements Data. Apporter un appui technique aux équipes internes sur les choix d’architecture et d’implémentation. Réalisation des audits techniques, analyses de performance ou preuves de concept afin d’optimiser les solutions existantes. Évolution et modernisation de l’infrastructure : Évaluation de l’existant et proposition d'une trajectoire de modernisation vers des architectures cloud natives. Intégrer les pratiques DevOps (Infrastructure as Code, CI/CD, automatisation) et FinOps dans les nouveaux déploiements. Conception et implémentation de nouveaux schémas d’acquisition et de traitement de données (micro-batch, streaming, event-driven, transactionnel).
Mission freelance
Data Engineer - access management on Snowflake
Publiée le
Snowflake
3 ans
400-550 €
Île-de-France, France
Télétravail partiel
Adminisitration Snowflake - Confirmé - Impératif RBAC - Confirmé - Impératif GITLAB - Confirmé - Important TERRAFORM - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Au sein d'une Tribe Data Platform, l'équipe DATA « Data Platform Protect » (DPP) fournit des produits et des services pour gérer les accès et la protection des données sensibles (snowflake, app streamlit, etc.). Sous la responsabilité du Tech Lead Data Platform, le/la Data Engineer Snowflake « DPP » aura donc la charge de… Déployer un nouveau framework RBAC auprès des différentes Feature Teams DATA (+ 10 FT) sur leurs projets Gitlab gérant les ressources Snowflake Communiquer avec les TechLeads des Feature Teams Participer aux activités et évènements transverses de la Feature Team/Tribe, du pôle ENGINEERING ou DATA.
Offre d'emploi
DATA ENGINEER
Publiée le
24 mois
35k-40k €
250-400 €
Nantes, Pays de la Loire
Télétravail partiel
L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino - Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino). - Mettre en place des modèles de données optimisés et cohérents avec les standards du socle. - Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg). - Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle. Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD. - Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs). - Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka. - Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring). - Être force de proposition sur l'amélioration continue du socle et des workflows de développement. - Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus. - Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective). Les activités confiées supposent la maîtrise de : - Kafka - DBT - Python - Trino
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Transfert d'activité - cession du fond de commerce
- Mise à jour info-retraite
- Passage sasu à eurl: transition mutuelle/prévoyance
- Création de site Wordpress : BIC ou BNC ?
- SCI détenue par une Société bénéficera du taux réduit de 15 % d’IS ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
23 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois