L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 408 résultats.
Mission freelance
Data engineer ETL(IDQ)/python (F/H) - 75 + Remote
Publiée le
Data quality
ETL (Extract-transform-load)
Linux
12 mois
400-650 €
Paris, France
Télétravail partiel
Notre client recherche un Data Engineer ETL (Informatica / Python) pour renforcer son équipe IT au sein du domaine Finance. L’environnement technique comprend : Un ESB (Software AG) pour les traitements temps réel Un ETL (Informatica) pour les traitements batch Une Data Platform pour l’analytics (Microsoft Fabric / Power BI) Un plan de migration est en cours pour basculer les flux d’Informatica vers Microsoft Fabric. Mission Le data engineer interviendra sur le « data hub » finance, qui alimente les outils de finance. Missions principales : Phase 1 * Maintenance et support des flux existants (Informatica) * Maintenance évolutive et corrective des flux du data hub * Support aux équipes intégration et métiers * Suivi et monitoring des traitements * Analyse et résolution des incidents de production Phase 2 * Projets de migration et nouveaux développements * Participation aux projets de migration des flux vers Microsoft Fabric * Analyse des besoins et des données sources * Modélisation dans le modèle pivot du hub * Conception et développement de nouveaux flux * Rédaction de spécifications techniques/fonctionnelles détaillées * Tests unitaires et de non-régression Coordination avec les autres équipes techniques Déploiement et support post-mise en production
Offre d'emploi
ML Engineer
Publiée le
Machine Learning
MLOps
Natural Language Processing (NLP)
1 an
40k-45k €
220-580 €
Paris, France
Télétravail partiel
Missions principales Participer au développement, au déploiement et au suivi des services d'IA, impliquant l'utilisation de modèles NLP et leur intégration dans les applications de gestion des risques : Réalisation des POC IA Mise en place d'une pipeline MLOps Industrialisation des Use Cases en production (avec intégration complète aux processus métier et applications existantes) Garantir la qualité et la performance des solutions délivrées en production, en respectant les normes et bonnes pratiques en matière d'IA Maintenir une veille technologique sur les solutions d'IA dans le périmètre défini Participer au maintien et aux évolutions des solutions IA déployées : monitoring et calibrage des modèles en production
Mission freelance
Data Engineer AWS
Publiée le
AWS Cloud
PySpark
Python
12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Offre d'emploi
DATA ENGINEER SPARK / SCALA / PYSPARK / DATABRICKS / AZURE
Publiée le
Apache Spark
Azure
Databricks
3 ans
36k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour 👽, Pour le compte de notre client, nous recherchons un data engineer Spark / Scala / Pyspark / Databricks / Azure. Missions principales : Participer au développement des User Stories (US) et réalisation des tests associés. Produire et maintenir la documentation projet : mapping des données, modélisation des pipelines, documents d’exploitation. Mettre en place et maintenir le CI/CD sur l’usine logicielle. Assurer la mise en place du monitoring . Collaborer étroitement avec l’équipe projet ; pas de responsabilité de production individuelle. Travailler dans un environnement agile avec priorisation et gestion multi-projets. Compétences techniques indispensables : Maîtrise de Scala et Spark (batch principalement). Optimisation des jobs Spark et traitement de volumétries importantes / complexes . Bonnes pratiques de développement Scala et build Maven. Expérience en environnement cloud , idéalement Azure . Compétences techniques appréciées : Écosystème Databricks Azure Functions et Azure Data Factory Monitoring sous Datadog Déploiement avec Ansible Compétences transverses : Aisance relationnelle et esprit d’équipe Autonomie, rigueur et esprit d’analyse Capacité de synthèse et force de proposition Sens des priorités et respect des délais Appétence client et compréhension métier / fonctionnelle Mentoring et partage de connaissances
Offre d'emploi
DATA ENGINEER GCP (480€ MAX)
Publiée le
Google Cloud Platform (GCP)
3 mois
40k-81k €
370-480 €
Paris, France
Télétravail partiel
• Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery • Expériences intégrant les langages Python et SQL • Expériences intégrant PySpark • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques 1 . Déployer les cas d’usages en lien avec la personnalisation de l’expérience utilisateur 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets
Mission freelance
Site Reliability Engineer – Move to Cloud Azure (H/F)
Publiée le
Azure
Site Reliability Engineering (SRE)
6 mois
550 €
Villeneuve-d'Ascq, Hauts-de-France
Télétravail partiel
Nous recherchons un SRE expérimenté pour accompagner une migration d’infrastructure vers Microsoft Azure dans un contexte de modernisation et d’industrialisation des opérations. Contexte : Le consultant interviendra sur la migration VMware vers Azure AVS, la mise en place d’un PRA simplifié et l’organisation du MCO d’un parc de 335 VMs. Il contribuera également à la structuration des pratiques d’observabilité et à l’intégration d’outils de supervision adaptés. Missions principales : Accompagner le move-to-cloud vers Azure AVS . Construire et optimiser le MCO sur un large parc de VMs. Participer à la mise en place d’un PRA simplifié . Déployer et configurer les outils d’observabilité (Datadog, Grafana, Azure Monitoring…). Automatiser et industrialiser via Terraform, Puppet, GitHub . Contribuer à la fiabilisation et à la performance des environnements. Être force de proposition pour améliorer l’exploitation et la supervision.
Mission freelance
Infrastructure Engineer Expert
Publiée le
ServiceNow
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure, Infrastructure Engineer Spécialités technologiques : Collaboratif, Virtualisation, Infrastructure, Cloud , MFT Au sein d’une DSI internationale, vous intégrerez une équipe d’experts IT dédiée à la conception, la mise en œuvre et la maintenance d’infrastructures critiques de transferts de fichiers. Dans le cadre d'une migration de plateforme, votre rôle consistera à garantir la fiabilité, la sécurité et la performance des plateformes de Managed File Transfer (MFT) utilisées pour les échanges de données internes et externes de l’entreprise. MISSIONS Vous interviendrez sur l’ensemble du cycle de vie des solutions — de la conception à l’exploitation — dans un environnement exigeant, collaboratif et multiculturel. Responsabilités principales - Gérer de bout en bout les plateformes de transfert de fichiers : installation, mise à jour, maintenance et supervision - Assurer la surveillance de la production et le traitement des incidents techniques - Administrer les transferts internes et externes en lien avec les partenaires et les applications métiers - Accompagner les utilisateurs dans la mise en place de nouveaux flux et les assister en cas d’incidents applicatifs - Prioriser et piloter les activités liées aux transferts en production - Concevoir et maintenir des scripts d’automatisation (PowerShell, Shell, Python, etc.) - Rédiger et maintenir la documentation technique et les consignes d’exploitation - Participer à la gestion des incidents, problèmes et changements selon les bonnes pratiques ITIL - Contribuer à l’amélioration continue de la stabilité, des performances et de la sécurité des systèmes - Mettre en œuvre les demandes standardisées via la plateforme ITSM (ServiceNow ou équivalent) - Assurer un rôle de référent technique sur les outils de transfert et d’automatisation Expertise souhaitée Compétences techniques requises - Compétence sur Stonebranch Universal Agent : UDM, UEM, UCMD : impératif - Maîtrise des solutions de Managed File Transfer (MFT) - Expérience sur la plateforme Axway Synchrony : Gateway, XFB, Integrator, PassPort, Sentinel, Composer, Interpel, CFT - Bonne connaissance des protocoles de transfert : SFTP, PeSIT - Compétences en administration de serveurs applicatifs (Apache, Tomcat, HTTP) - Bon niveau en réseaux (TCP/IP) et scripting (Shell, PowerShell, Perl, PHP, Python) - Administration des environnements Linux / Windows - Connaissances en virtualisation (VMware) et Cloud (Azure, AWS) - Utilisation avancée d’un outil ITSM (ServiceNow ou équivalent) -Connaissance du référentiel ITIL / IPC Souhaitées : - Connaissance des protocoles financiers Swift FileAct / Swift FIN - Compétences sur ordonnancement TWS et outil EGEN - Connaissance complémentaire des serveurs JBoss, Apache, MQSeries
Mission freelance
Data Engineer
Publiée le
Azure
Databricks
PySpark
6 mois
Paris, France
Télétravail partiel
Contexte : Notre client, un acteur majeur du secteur énergie, renforce son pôle Data Platform dans le cadre de la modernisation de ses pipelines de données sur Azure. Missions : · Développer et maintenir des pipelines de données sur Azure Data Factory et Databricks · Assurer la qualité, la fiabilité et la performance des flux · Participer à la migration vers une architecture Cloud · Collaborer avec les équipes DataOps et Data Science Stack technique : · Azure Data Factory, Databricks, PySpark, SQL, Delta Lake, Git, CI/CD · Environnement Agile / DevOps Profil recherché : · 4+ ans d’expérience en Data Engineering · Bonne maîtrise des environnements Azure / Databricks · Esprit analytique, autonome et orienté delivery
Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT
Publiée le
Machine Learning
Python
6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Mission freelance
Data Engineer GCP
Publiée le
DBT
Google Cloud Platform (GCP)
18 mois
460-530 €
Rennes, Bretagne
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer GCP pour l'un de ses clients dans le secteur de la restauration à Rennes. Missions principales : Développer et maintenir des pipelines de données fiables et évolutives. Assurer un regard critique sur les données et garantir leur qualité ( quality by design ). Mettre en place des contrôles et validations sur les données, comprendre les contraintes métiers et techniques. Collaborer avec les équipes pour estimer le reste à faire , le chiffrage des tâches et la planification des sprints. Travailler dans un environnement agile (Scrum/Kanban), avec suivi dans Jira . Participer à la mise en place des bonnes pratiques DevOps : Git, CI/CD . Collaborer avec les équipes techniques et métiers pour garantir la pertinence des données. Atouts supplémentaires : Expérience industrielle ou traitement de données en temps réel (Pub/Sub). Capacité à proposer des améliorations ou innovations dans les pipelines et la qualité des données.
Offre d'emploi
Cybersécurité Engineer / Sécurité Réseau
Publiée le
Fortinet
Palo Alto
1 an
40k-45k €
400-530 €
Île-de-France, France
Télétravail partiel
Cybersécurité Engineer / Sécurité Réseau-Build FW25-Cellule02 Le Bénéficiaire souhaite une prestation d'accompagnement dans l´objectif d´assurer la mise en place d'une prestation visant à administrer les équipements Firewall. Missions Participation à des projets impactant la sécurité des réseaux Réalisation des changements avec mesure des impacts Administration des politiques de sécurité distribuées sur les différents FW du groupe (traitement des demandes d'ouverture de flux, création de nouvelles bulles sécurisées, ..) Suivi des recommandations concernant la maîtrise du risque informatique Participation à la mise en œuvre et à l'amélioration de la démarche qualité Participation aux ateliers de travail technique (workshop) avec les chefs de projets et les architectes de sécurité Réflexion relative à la maîtrise du risque informatique
Mission freelance
DIGITAL WORKPLACE ENGINEER
Publiée le
Azure Active Directory
Master Data Management (MDM)
Objet de stratégie de groupe (GPO)
6 mois
350-550 €
Paris, France
Télétravail partiel
Rattaché au département Group IT Infra – DWS/Workplace , le Digital Workplace Engineer aura pour mission d’assurer un environnement utilisateur moderne, sécurisé et performant , autour des technologies Microsoft et des solutions de cybersécurité. Il interviendra sur la conception, le déploiement, et le support de la plateforme digitale de travail , garantissant la cohérence entre identité, postes de travail, virtualisation et collaboration . Identity & Access Management : AD, Azure AD, MFA, Conditional Access, GPO, Intune Policies, Autopatch Messaging & Collaboration : Administration Exchange On-Prem / Online, Proofpoint, Office 365 (SharePoint, Teams, OneDrive) Endpoint Management & Mobilité : SCCM, Intune, MDM/MAM, Packaging applicatif, Trend Micro, Azure Update Manager Virtualisation & Profils utilisateurs : Mise en place d’AVD et gestion des profils via FSLogix Sécurité & Conformité : Application des bonnes pratiques, gestion des politiques Intune et conformité Zero Trust Documentation & Support N3/N4 sur l’ensemble du périmètre Workplace
Offre d'emploi
Data engineer
Publiée le
Big Data
BigQuery
DBT
1 an
40k-50k €
400-550 €
Île-de-France, France
Télétravail partiel
Intégré(e) au sein des équipes de la Digital Factory Supply Chain, le/la Data Engineer contribuera ou pilotera la conception, le développement, la maintenance et l'optimisation de solutions de traitement de données massives. La Digital Factory Supply Chain développe l'ensemble des assets digitaux pour une expérience omnicanale, au service de l'approvisionnement des magasins, de la commande automatique à la livraison. Missions et Responsabilités Principales : Conception et Développement : Concevoir, développer et maintenir des solutions Big Data en utilisant les technologies Cloud (GCP). Pour les profils Sénior, cela inclut la mise en place et l'optimisation des pipelines de données. Contribution aux Projets : Participer activement à la réalisation de projets métier, notamment autour de solutions ELT in-house (BigLoader) et DBT. Opérations et Maintenance : Assurer la prise en charge des demandes de corrections issues d'incidents ou d'anomalies. Pour les profils Sénior, cela inclut l'analyse des performances et l'amélioration continue des solutions existantes. DevOps et Automatisation : Contribuer aux pratiques Devops , à l'automatisation du delivery , et à l'application des bonnes pratiques et normes de développement. Participer aux chiffrages des usages et à la constitution des releases . Expertise et Mentoring : Participer à l'auto-formation et à la montée en compétences de l'équipe de développement.
Offre d'emploi
Senior Data engineer AWS
Publiée le
Terraform
18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Offre d'emploi
Tech Lead Snowflake
Publiée le
Apache Airflow
AWS Cloud
Snowflake
2 ans
40k-81k €
400-640 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Tech Lead Snowflake : le Tech Lead « aura donc la charge de: 1)Co-piloter la Feature Team 2)Créer un binôme fort avec son homologue ‘Produit’ (Product Owner déjà présent). 3)Encadrer les Data Engineers : 4 externes + 1 interne 4)Assurer la mise en oeuvre des bonnes pratiques de développements (DevOps, Qualité, FinOps, etc.) 5)Contribuer au cadrage, découpage & macro-estimation des nouveaux sujets. 6)Orienter les choix techniques et de modélisation (urbanisation Snowflake, patterns Archi, etc.) 7)Livrer les produits Data (Analytics & IA) suivant les engagements de qualité et de délais pris. 8)Gérer la communication et la résolution en cas d’incidents. 9)Tenir informés ses supérieurs, voir les alerter ou demander de l’aide en cas de risque ou pb. 10)Participer aux évènements organisés à l’échelle de la DATA ou de la verticale ENGINEERING.
Offre d'emploi
Mission de 3 ans en freelance ou portage - Operations Engineer Réseau et Logistique - Lille
Publiée le
Réseaux
3 ans
Lille, Hauts-de-France
Télétravail partiel
Bonjour Pour un de mes clients je cherche un(e) Operations Engineer – Logistique France Une grande entreprise du sport accélère sa transformation digitale pour devenir une plateforme ouverte et sécurisée. Les équipes digitales dans plusieurs pays créent des produits utiles pour les utilisateurs. L’équipe Proxi’Log fournit les solutions réseau et infra pour tous les entrepôts. Elle déploie et maintient les solutions techniques. Elle pilote les projets de robotisation. Elle assure la sécurité des infrastructures et accompagne les équipes IT à l’international. Le poste est un rôle de proximité entre les entrepôts et l’IT Vous gérez plusieurs sites. Vous pilotez et déployez les projets IT. Vous organisez vos déplacements. Vous êtes le point d’entrée pour le support réseau infra et devices. Vous formez des relais locaux et diffusez les bonnes pratiques. Vous gérez l’inventaire et la facturation du parc IT. Vous mettez à jour la documentation de vos sites. Compétences Réseau IPv4 LAN WiFi WAN DHCP DNS VLAN switch firewall Analyse et gestion d’escalade Pilotage de projets déploiements organisation planification Support N2 N3 coordination multi équipes Profil Diplôme d’ingénieur ou équivalent Minimum 2 ans d’expérience réseau Bon relationnel communication écoute Organisation sens du service esprit collectif Autonomie goût du terrain Anglais opérationnel Intérêt pour le sport et la tech Profil visé Operations Engineer polyvalent avec expérience réseau support et gestion de projets Si vous êtes intéressé(e) et que votre profil correspond merci d’envoyer votre CV à jour. Je vous recontacterai rapidement pour échanger.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
408 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois