Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 406 résultats.
Freelance

Mission freelance
Network Security Engineer – Confirmé (F/H)

Publiée le
Network

1 an
400-720 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement des activités cybersécurité d’une grande DSI Groupe, la direction Réseau recherche un Network Security Engineer confirmé pour accompagner la mise en œuvre et le pilotage des mesures de sécurité sur les plateformes et services réseau. Le consultant interviendra en étroite collaboration avec les équipes Network , Cybersecurity et SOC du Groupe. 🧩 Missions principales Participer à la stratégie de sécurité réseau en fonction des risques, menaces et évolutions technologiques. Définir et diffuser les politiques et standards de sécurité réseau . Intégrer la sécurité dans les projets et activités RUN (IAM, vulnérabilités, exceptions, flux…). Piloter la sécurité opérationnelle et la conformité continue (contrôles, remédiations, reporting). Assurer une veille sécurité sur les technologies réseau et vulnérabilités critiques. Contribuer à la gestion d’incidents et crises cybersécurité sur le périmètre réseau. Sensibiliser et former les équipes techniques sur les bonnes pratiques de sécurité.
Freelance

Mission freelance
Senior Engineer - Migrations

Publiée le
AWS Cloud
Databricks
Migration

6 mois
450-500 €
Paris, France
Télétravail partiel
Mission / Freelance / Longue / France / Paris / Hyrbide / Senior Engineer / Migration / Typescript / AWS / Kafka / SQL / Anglais Notre partenaire recherche plusieurs Senior Engineers – Migrations pour renforcer son équipe d’ici la fin de l’année. L’objectif : accompagner la migration de systèmes clients complexes vers une plateforme innovante. Localisation : Paris (Gare du Nord), 3j/semaine sur site Démarrage : ASAP Durée : mission longue Langue : Anglais professionnel courant (obligatoire) Vos missions Au sein de l’équipe Client Engineering, vous interviendrez sur : La migration de comptes et données clients depuis des systèmes legacy vers les environnements modernes de la plateforme. L’analyse de données client pour comprendre le comportement utilisateur et orienter les stratégies de migration. Le développement d’outils backend et de pipelines performants pour automatiser et fiabiliser les processus de transfert. La collaboration transverse avec les équipes produit, data et infrastructure afin d’assurer une intégration fluide et une satisfaction client optimale. La participation à la définition des standards techniques et à la mise en place de bonnes pratiques sur un contexte à forte croissance. Stack technique TypeScript, Node.js, Databricks, AWS (serverless), Kafka, GraphQL, Docker, Kubernetes, GitHub Actions. Profil recherché Solide expérience en développement backend (TypeScript idéalement, ou autre langage moderne avec volonté d’évoluer dessus). Maîtrise des architectures événementielles et des systèmes à base de queues (Kafka, SNS/SQS…). Bonne expérience du cloud AWS et des environnements serverless. Connaissances en base de données SQL/NoSQL, performance et optimisation. Capacité à évoluer dans un environnement international, collaboratif et exigeant. Anglais courant indispensable (environnement 100% anglophone). Serait un vrai plus Expérience en data engineering (Databricks, pipelines, data mapping). Participation à un programme de migration ou à des projets d’intégration complexe. Si cette opportunité vous intéresse, vous pouvez y postuler ou me contacter directement (Christopher Delannoy).
Freelance

Mission freelance
AWS engineer / Architect

Publiée le
AWS Cloud
AWS Glue

12 mois
550-870 €
Paris, France
Télétravail partiel
Hanson Regan recherche un AWS/ingénieur/Architectes pour une mission de 12 mois basée à Paris Architecte avec Expertise IaC sur AWS, modèle d'habilitation IAM Architecture de la plateforme Data et du Datalab sur Services Data AWS natifs Ingénieurs Data avec Expérience AWS : Ingestions de fichiers simples avec AWS Glue Portage de code Spark2 vers Spark 3 de cloudera vers EMR (mix Python & Scala) Services Data Natifs AWS (GLue, EMR, Tables GLue sur S3 et éventuellement S3Tables Iceberg) Document d'expositionDB/MongoDB En raison des exigences du client, les indépendants doivent pouvoir travailler via leur propre entreprise, car nous ne pouvons malheureusement pas accepter de solutions globales pour cette mission. Veuillez nous contacter au plus vite si vous êtes intéressé.
Freelance

Mission freelance
Software Engineer senior

Publiée le
.NET
Azure
DevOps

6 mois
450-600 €
Paris, France
Télétravail partiel
Orcan Intelligence recherche pour l’un de ses clients, un software Engineer senior pour concevoir, développer et déployer une solution stratégique au cœur du système d'information. Cette solution servira d'interface centralisée entre les différentes applications métiers et les Large Language Models (LLM). Missions : Développer l'application d'interface en utilisant principalement le framework .NET. Intégrer les différents LLM et les connecter aux applications existantes du client. Mettre en œuvre les composants liés à l'Intelligence Artificielle. Intervenir sur l'infrastructure pour le déploiement d'une solution Microsoft dédiée et garantir l'opérationnalité dans le Cloud Azure.
Freelance

Mission freelance
Expert BigData / Cloud Data Engineer Senior

Publiée le
Cloud

6 mois
160-650 €
Île-de-France, France
Télétravail partiel
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale. L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud. Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche. Les principales missions sont: Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Réaliser l'étude détaillée des besoins clients en lien avec les architectes • Construire avec les CloudOps les infrastructures DATA pour le projet • Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation • Paramétrer / configurer les services afin de répondre aux exigences projets • Définir la stratégies de backup et restauration • Réaliser les tests de performances, de résilience et de reprise d'activité • Implémenter le monitoring et l'alerting • Rédiger les documents d'exploitation Participer au RUN de nos services : • Gestion des demandes et incidents • Patching / Upgrade • Participation à l'astreinte de l'équipe • Amélioration continue de nos procédures/documentation Compétences recherchées : • Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino • Connaissance des Cloud Public AWS et GCP et Terraform • Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc. • Connaissance approfondie linux et kubernetes • Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc) • Maîtrise de langages de programmation (Scala, Java, Python…) • Travail en Agile • Anglais • Certification ITIL V4 obligatoire 3J/Semaine sur site Les astreintes (HNO, etc…) : Oui
Freelance

Mission freelance
Lead Data Quality Analyst

Publiée le
Dataiku
Qlik
ServiceNow

12 mois
600-700 €
Paris, France
Télétravail partiel
En tant que Lead Data Quality Analyst , vous êtes le garant de la fiabilité et de l'intégrité de nos actifs data. Votre rôle central consiste à définir, mesurer et mettre en œuvre les stratégies et processus assurant une haute qualité des données, indispensable à la prise de décision et au succès de nos initiatives métier. Vous pilotez l'ensemble du cycle de vie de la qualité des données : Gouvernance et Stratégie Data Quality : Définir et maintenir les règles de qualité des données (complétude, unicité, validité, cohérence et format). Établir les indicateurs clés de performance (KPI) de la qualité des données et s'assurer de leur suivi régulier. Analyse et Audit des Données : Analyser la qualité des données au sein de nos systèmes sources et cibles (Data Warehouse, Data Lake). Identifier les anomalies, les causes racines des problèmes de qualité (système, processus, ou saisie) et recommander des actions correctives. Implémentation Technique : Mettre en œuvre des contrôles de qualité automatisés directement dans les outils d'entrepôt de données (notamment Snowflake ). Développer des tableaux de bord de monitoring de la qualité pour visualiser les scores et les tendances (via Qlik ou d'autres outils de visualisation). Coordination et Amélioration Continue : Collaborer étroitement avec les Data Engineers, les Data Scientists et les équipes métier pour garantir la bonne application des règles de qualité. Gérer la priorisation des tickets et des actions d'amélioration de la qualité des données.
Freelance
CDI

Offre d'emploi
ML Engineer

Publiée le
Machine Learning
Python

1 an
40k-45k €
100-570 €
Montreuil, Île-de-France
Télétravail partiel
Descriptif du poste Dans le cadre de l'accélération de l'IA d'une grande banque commerciale en France, au sein de l'IA Factory, nous recherchons un ML Engineer pour permettre la mise en production des algorithmes élaborés par les Data Scientists. Objectifs de la Mission Contribuer à la mise en production d'algorithmes de Machine Learning Optimiser le déploiement et le cycle de vie des modèles IA Compétences et Qualités Attendues Compétences DevOps : GitLab Gitlab-CI Docker Pipeline CICD Services cloud Python Outils de code quality : Ruff Black MyPy Sonarqube
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Apache Airflow
ETL (Extract-transform-load)
Python

1 an
40k-45k €
100-550 €
Montreuil, Île-de-France
Télétravail partiel
Contexte Dans le cadre du chantier Knowledge Management (KM), une base de connaissance doit être constituée à partir de documents non structurés (PDF, Word, HTML). Cette base servira à formaliser la connaissance sous une forme agnostique des usages, en vue d'une réutilisation large et durable. Un pipeline initiale de structuration des connaissances a été établi, mais doit maintenant être industrialisé pour une exécution fiable, scalable et maintenable. Objectif de la mission Development des pipelines d'ingestion, transformation et alimentation de la base de connaissance, tout en assurant le versioning et la traçabilité des traitements.
Freelance

Mission freelance
Data Engineer DBT

Publiée le
DBT

6 mois
400-550 €
Paris, France
Télétravail partiel
Hello, Pour le compte de l'un de mes clients parisiens, je suis à la recherche d'un Data Engineer DBT senior (ou confirmé ++). Dans l'idéal, le DE aura les skills suivants : ○ 5 ans d’expérience minimum en Data Engineering. ○ Une expérience obligatoire sur DBT (au moins 6 mois à 1 an en production). ○ Une expérience sur Daxter est un plus, sinon Airflow. ○ Une capacité à apporter de la méthodologie et des bonnes pratiques à l’équipe. Un prérequis avec Snowflake & une expertise cloud.
Freelance

Mission freelance
Intégrateur de solutions cybersécurité – SOC Log Integrator & Parsing Engineer

Publiée le
Apache Kafka
AWS Cloud
Azure

1 an
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Nous recherchons un SOC Log Integrator & Parsing Engineer pour rejoindre une équipe Cybersécurité au sein du Security Operations Center (SOC) . Vous serez responsable de l’ensemble du processus de collecte, parsing et normalisation des logs à travers des environnements cloud et on-premise , en support des opérations SOC 24/7. Rattaché(e) au Build Team Lead , vous collaborerez étroitement avec les équipes Cybersécurité, IT et métiers afin de garantir des mécanismes de défense robustes, scalables et automatisés . Responsabilités Concevoir, implémenter et maintenir des pipelines complets de collecte et parsing de logs Gérer et optimiser les systèmes d’ingestion et de transfert de logs (Fluentd, Kafka, etc.) Développer des parsers avancés pour normaliser les données selon des schémas spécifiques Assurer la qualité, fiabilité et standardisation des logs sur l’ensemble des systèmes Intégrer de nouvelles sources de logs en coordination avec les équipes Réseau, Applicatives et SOC Développer et maintenir les règles de parsing, de normalisation et d’enrichissement pour ingestion dans les SIEM (Elastic, Splunk, Sentinel, etc.) Implémenter des pipelines CI/CD pour l’automatisation du déploiement des configurations Appliquer les pratiques DevSecOps pour sécuriser et fiabiliser les processus d’ingestion Créer des mécanismes de supervision continue du pipeline d’ingestion Contribuer à l’amélioration continue de l’observabilité et des capacités de détection du SOC Documenter l’ensemble des workflows, parsers et composants d’intégration
Freelance

Mission freelance
229374/Prompt Engineer Python IA générative- Toulouse (no remote)

Publiée le
IA Générative
Python

3 mois
Toulouse, Occitanie
Prompt Engineer Python IA générative - Toulouse Mission ciblé Data / IA/ Innovation / Produit => Prompt Engineer Goals and deliverables Conception de prompts efficaces : Rédiger, tester et optimiser des prompts pour interagir avec des modèles d’IA (LLMs comme GPT, Claude, Mistral, etc.). Adapter les prompts à différents cas d’usage : génération de texte, résumé, classification, extraction d’informations, etc. Collaboration avec les équipes métiers : Travailler avec les équipes produit, marketing, support ou développement pour comprendre les besoins et concevoir des solutions IA adaptées. Traduire les besoins métiers en instructions exploitables par les modèles. Expérimentation et veille technologique : Tester différents modèles et techniques de prompting (zero-shot, few-shot, chain-of-thought, etc.). Suivre les évolutions des modèles de langage et des outils IA. Documentation et standardisation : Documenter les prompts, les résultats et les bonnes pratiques. Créer une bibliothèque de prompts réutilisables. Évaluation des performances : Mettre en place des métriques pour évaluer la qualité des réponses générées. Identifier les biais, hallucinations ou erreurs et proposer des solutions. Expected skills Outils low-code et no-code Expert Python Expert data science Expert IA générative Expert
Freelance

Mission freelance
Data Engineer Palantir

Publiée le
PySpark
Python

3 mois
400-600 €
Paris, France
Télétravail partiel
Orcan Intelligence recherche pour l'un de ses clients un Data Engineer senior. Le Data Engineer senior devra construire, livrer, maintenir et documenter des pipelines de données dans le périmètre des fondations Risque. Livrables attendus : Pipelines de données pour les fondations Risque, livrés dans les délais. Code documenté et testé unitairement. Mises en œuvre des contrôles de qualité et de santé ( health checks ). Expérience et compétences requises :
Offre premium
Freelance

Mission freelance
Consultant ServiceNow (CMDB & International)

Publiée le
CMDB
Conduite du changement
ITIL

6 mois
600-680 €
Provence-Alpes-Côte d'Azur, France
Télétravail partiel
Contexte Type de mission : freelance / indépendant (full time) Client : Grand compte Localisation : Bouche-du-Rhône Télétravail : Hybride Durée de la prestation : mission longue durée (6 mois renouvelable) Début de mission : Dès que possible Notre Entreprise NEOTRUST est un Cabinet spécialisé en Cybersécurité créé par un RSSI et installé au Campus Cyber, à Rennes et au Canada. Nous sommes une entreprise à taille humaine animée par la passion du conseil et du recrutement à travers l’Europe et l’Amérique du Nord. Description du Besoin Dans le cadre du renforcement de l’équipe ITSM de notre client grand compte, nous recherchons un Consultant ServiceNow autonome, capable de définir, structurer et déployer la CMDB ainsi que les processus associés dans l’ensemble des pays du groupe. Votre Mission Définir, structurer et mettre en place la CMDB dans ServiceNow. Concevoir et déployer les nouveaux processus ITSM liés à la CMDB à l’échelle internationale. Assurer le paramétrage, l’administration courante et les évolutions nécessaires sur ServiceNow. Collaborer avec les équipes locales dans chaque pays afin de garantir l’alignement, l’adoption et la mise en conformité des processus. Participer à la gestion de projet : planification, suivi, coordination, reporting. Contribuer à l’amélioration continue du modèle CMDB et des processus ITSM.
Freelance
CDI
CDD

Offre d'emploi
TECH LEAD DATA ENGINEER

Publiée le
Méthode Agile

12 mois
Châtillon, Île-de-France
Télétravail partiel
Nous recherchons un Tech Lead Data Engineer senior avec une expérience d’au moins 2 ans en tant que Tech Lead, certifié sur Spark ou Databricks (obligatoire) et qui sera en mesure de livrer des : 1. Guidelines techniques & standards de développement 2. Cartographie de la dette technique priorisée En tant que Tech Lead Data Engineer, vous serez impliqué dans les phases de design des applications et garant de la solution technique. À ce titre, vos principales responsabilités seront : • Assurer un leadership technique auprès des équipes de développement. • Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. • Participer activement aux phases de conception, développement et tests. • Porter la vision technique au sein des équipes Agile. • Garantir la qualité des livrables et veiller à la réduction de la dette technique. • Réaliser la modélisation des données. • Assurer une veille technologique et participer aux POCs. • Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques. EXPERTISES REQUISES - Databricks - Spark - Azure - Modélisation Aptitudes Personnelles • Leadership technique et capacité à fédérer. • Force de proposition et esprit de partage. • Excellente maîtrise de l’architecture SI. • Rigueur, réactivité, aisance relationnelle et rédactionnelle. • Capacité à accompagner la montée en compétences des équipes. • Communication claire et collaboration transverse.
CDI

Offre d'emploi
Data Engineer

Publiée le
AWS Cloud
Azure
Databricks

45k-65k €
Paris, France
Télétravail partiel
Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).
Freelance

Mission freelance
Data Engineer (PySpark)

Publiée le
PySpark

18 mois
100-400 €
Paris, France
Télétravail partiel
CONTEXTE Métiers Fonctions : Data Management, Data Engineer Spécialités technologiques : Big Data Compétences Technologies et Outils : HadoopPyspark (2 ans) Dans le cadre d’un projet stratégique autour du recouvrement et de la lutte contre la fraude, nous recherchons un Data Engineer confirmé spécialisé en PySpark, pour rejoindre une équipe technique pilotée par un Tech Lead expérimenté. Le projet s’appuie sur des volumes massifs de données critiques (plusieurs milliards d’événements par jour) et vise à développer des cas d’usages à fort impact dans la détection d’anomalies et l’optimisation des processus de recouvrement. MISSIONS Missions principales - Participer à la construction et l’optimisation des pipelines de données sous PySpark. - Contribuer à la mise en place d’architectures Big Data sur un environnement Hadoop (bonus). - Assurer la qualité, la fiabilité et la performance des flux de données. - Collaborer étroitement avec les équipes data science et métier pour industrialiser les cas d’usage (fraude, scoring, recouvrement automatisé…). - Intervenir sur des problématiques de scalabilité et de traitement en temps réel / batch. - Garantir la sécurité et la conformité des traitements sur des données sensibles.
406 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous