L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 858 résultats.
Mission freelance
AI Engineer
Publiée le
AI
AWS Cloud
Azure
12 mois
500-800 €
75017, Paris, Île-de-France
Télétravail partiel
La mission s’inscrit dans le cadre du projet « Artificial Intelligence Engineering », au sein de la division GDAI du Groupe. Ce projet vise à accompagner les entités dans leur montée en compétence, en définissant et en appliquant les meilleures pratiques en matière d’ingénierie ML / LLM. Nous déployons un parcours de formation en ML/LLM Engineering à l’échelle mondiale du Groupe, et nous recherchons une personne pour soutenir cette initiative. Améliorer le référentiel de formation MLOps / ML Engineering utilisé à l’échelle mondiale au sein du groupe Faire évoluer le parcours vers des pipelines ML sur AWS et Databricks (actuellement sur Azure)
Mission freelance
Data Engineer Expert DataVault - Snowflake / dbt– Azure
Publiée le
Azure
Azure DevOps
DBT
3 mois
400-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Data Engineer avec une expertise confirmée en modélisation DataVault (compétence indispensable) ainsi qu’une maîtrise de dbt et Snowflake , dans un environnement Azure . La mission s’inscrit dans une transformation Data stratégique visant à industrialiser et standardiser les flux de données. Missions : Concevoir, développer et faire évoluer la plateforme Data basée sur Snowflake et dbt. Modéliser, structurer et optimiser les modèles DataVault (Hubs, Links, Satellites) . Industrialiser, automatiser et fiabiliser les pipelines ETL/ELT . Contribuer à la mise en place et au respect de l’approche ATDD . Assurer la qualité, la traçabilité et la cohérence des produits data. Collaborer avec les équipes Data, Engineering et Projets pour garantir la valeur des solutions livrées.
Offre d'emploi
Technicien de maintenance des systèmes de sûreté électronique & vidéosurveillance
Publiée le
27k-33k €
Fréjus, Provence-Alpes-Côte d'Azur
En bref : Technicien systèmes de sûreté itinérant (F/H) – CDI – Fréjus – 30K + primes + véhicule de service Vous êtes technicien(ne) spécialisé(e) en courants faibles et vous cherchez une entreprise qui allie technicité, accompagnement et bonnes conditions de travail ? Vous êtes au bon endroit. Dans le cadre du développement de notre client, nous recherchons un Technicien systèmes de sûreté (alarme, vidéo, contrôle d’accès) itinérant (H/F) pour intervenir sur l'Ouest des Alpes-Maritimes . VOS MISSIONS : Vous rejoignez une équipe technique soudée et bien encadrée, avec un portefeuille client composé de PME, Grands Comptes et sites à haute exigence (industrie, tertiaire, santé, enseignement, etc.). Sous la responsabilité du chef d’équipe, vos missions sont les suivantes : - Assurer les opérations d'installation, de mise en service, de maintenance et de dépannage des systèmes électroniques de sûreté et réseaux : détection intrusion, vidéosurveillance, contrôle d’accès… - Assurer la formation des utilisateurs. - Être garant de la satisfaction client : conseil et écoute. Environnement technique : - Intrusion : Aritech / Honeywell / Vanderbilt - Vidéo : Hikvision / Truvision / Foxbox (détection thermique) - Contrôle d’accès : Aritech CDC4 / Eden - Bases en réseaux (adressage IP, supervision, etc.)
Mission freelance
Data Engineer AWS (S3, Glue, Athena, Python) 5 à 10 ans/sal
Publiée le
AWS Glue
Python
6 mois
430-520 £GB
Paris, France
Télétravail partiel
Data Engineer AWS (S3, Glue, Athena, Python) 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Understanding of scientific data in the pharma CMC space Requirements clarification with stakeholders, effort estimation for PI planning Good knowledge of Lean & Agile practices AWS data engineering: S3, Glue (Jobs/Workflows), Athena ETL/ELT development: Python, Glue ETL, schema evolution, partitioning Data modeling: harmonized domain models, star/snowflake schemas, metadata management SQL optimization: Athena performance tuning, cost-aware query design, partition/pruning strategies Testing and quality: unit/integration tests for pipelines, DQ frameworks Documentation and KT: runbooks, architecture diagrams, KT planning and execution Migration experience: parallel-run strategy, cutover planning, backfill, data reconciliation
Mission freelance
Data Engineer Spark/Scala
Publiée le
Apache Spark
Scala
3 mois
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandées Compétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Mission freelance
QA Engineer / QA Automation – GenAI Platform
Publiée le
IA Générative
Karate
Postman
12 mois
400-450 €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Dans le cadre du renforcement du dispositif QA d’une plateforme GenAI, nous recherchons un QA Engineer expérimenté , idéalement avec une première expérience en tests de solutions IA génératives . Vous interviendrez au sein d’une équipe orientée craftsmanship, performance et innovation , dans un environnement technique moderne (LangGraph, FastAPI, Kubernetes, MongoDB – Cloud GCP). Missions Tests & Qualité Rédiger, exécuter et automatiser les scénarios de tests. Contribuer aux tests API, E2E, non-régression et cahiers de recette. Prioriser les anomalies avec l’équipe produit et gérer le backlog (mode Scrum board). Participer à l’amélioration des processus QA au sein de l’équipe. Automatisation Implémenter et maintenir des scripts d’automatisation (Karate, Gatling ou équivalent interne). Intégration des tests dans la chaîne CI/CD. Suivi et reporting via Xray/Jira. IA / GenAI Testing Utiliser des outils d’IA pour générer des cas de test, analyser les résultats et identifier les tests pertinents. Prendre en compte les spécificités des systèmes IA : non-déterminisme, biais potentiels, hallucinations, limites des modèles. Contribuer aux bonnes pratiques d’évaluation et de fiabilité des modèles IA. Documentation & Suivi Maintenir la documentation QA et les bonnes pratiques. Reporter l’état des correctifs et interactions avec la chaîne support. Livrables Scripts d’automatisation (Karate / Gatling / outil interne). Tickets et reportings Xray/Jira. Documentation process & bonnes pratiques QA. Suivi des correctifs.
Offre d'emploi
API / Integrations Engineer (TypeScript, Node.js, REST)
Publiée le
55k-90k €
Paris, France
Télétravail partiel
En tant que API / Integrations Engineer (TypeScript, Node.js, REST), vous jouerez un rôle clé dans le développement et la maintenance de nos interfaces de programmation et intégrations logicielles. Vous serez directement intégré(e) au sein du département développement logiciel. Vos principales responsabilités seront : • Concevoir, développer et optimiser des API robustes et scalables. • Assurer l’intégration fluide des services internes et externes via des protocoles REST. • Collaborer étroitement avec les équipes produit, infrastructure et sécurité. • Veiller à la qualité du code, aux bonnes pratiques et à la documentation technique. • Participer à la veille technologique et aux propositions d’amélioration des processus.
Offre d'emploi
Data Engineer – GCP confirmé·e
Publiée le
Google Cloud Platform (GCP)
Python
SQL
3 ans
Rouen, Normandie
Télétravail partiel
Vous aimez relever des défis techniques ambitieux et contribuer à la mise en place d’architectures data performantes et innovantes ? Vous souhaitez évoluer au cœur d’un environnement cloud moderne et collaboratif ? Cette opportunité est faite pour vous ! Nous recherchons un·e Data Engineer – GCP confirmé·e pour accompagner la construction et le déploiement de solutions data pour notre client du secteur de l’assurance. Intégré·e à la DataFabric, vous rejoindrez une équipe agile composée de 5 à 7 Data Engineers, en lien direct avec le Tech Lead. Vous participerez activement au build et au run des traitements livrés en production sur la plateforme Google Cloud Platform (GCP). Vos principales responsabilités : Analyser, concevoir et modéliser les solutions data adaptées aux besoins métiers Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données Rédiger les documents techniques associés (spécifications, cahier de recette, documentation d’exploitation) Réaliser les recettes techniques et assurer la qualité des livrables grâce à des tests de non-régression Participer activement à la maintenance et à l’amélioration continue des traitements data en production Environnement technique : GCP : BigQuery, Cloud Storage, Cloud Composer, Airflow, GKE Langages & outils : SQL, Python CI/CD : maîtrise des outils d’intégration et de déploiement continu Infrastructure as Code : Terraform
Mission freelance
Site Reliability Engineer (H/F)
Publiée le
Ansible
Datadog
Terraform
2 ans
100-415 €
Lille, Hauts-de-France
Télétravail partiel
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Site Reliability Engineer (H/F) à Lille, France. Contexte : Les missions attendues par le Site Reliability Engineer (H/F) : - Automatiser et industrialiser la mise en place et l’administration des infrastructures. - Accompagner la croissance de l’utilisation des produits et optimiser leur performance et leur résilience. - Faire évoluer et documenter la chaîne de tooling (déploiement, supervision, observabilité, développement). - Contribuer aux projets et initiatives transverses de la communauté Ops/SRE avec une approche orientée résultats. - Optimiser les coûts des infrastructures tout en garantissant la disponibilité et la fiabilité des services. - Analyser et améliorer en continu l’infrastructure (monitoring, performance, optimisation). - Investiguer et corriger les anomalies techniques complexes (root cause analysis). - Accompagner les équipes de développement et opérationnelles dans l’adoption, la mise en œuvre et l’animation des pratiques SRE (SLO, Error Budget, post-mortems, réduction du toil).
Offre d'emploi
Data Engineer
Publiée le
DevOps
Python
6 mois
Paris, France
Description de la mission: Au sein d’un centre de services de cybersécurité vous rejoindrez une équipe internationale DevSecOps et vous serez responsable de la conception, du développement et la mise en œuvre d’applications. Missions : Cette équipe a pour principales missions de : • Faire la conceptualisation de la solution, le « proof of concept », l'estimation des efforts, le développement, la mise en œuvre, le déploiement et les phases de support. • Développer un code sécurisé, propre, réutilisable et bien documenté en suivant une méthode AGILE. • Configurer les environnements de développement, de test et de production en local et/ou dans le cloud • Maintenir la qualité du code, la documentation relative au développement, le déploiement en production, et le transfert de connaissances (KT).
Mission freelance
Data Engineer (F/H) - 56
Publiée le
Apache Kafka
Java
Shell
1 an
Vannes, Bretagne
Télétravail partiel
- Participer à la définition de l’architecture Data avec les architectes et la Squad - Concevoir, affiner et développer des solutions de collecte et de stockage multi-sources (batch et streaming) pour les usages métiers - Mettre en œuvre des tests unitaires et automatisés - Déployer le produit sur les différents environnements - Assurer le bon fonctionnement en production : suivi, assistance, gestion des incidents - Contribuer à l’amélioration continue et à la qualité du code //////////----------))))))))))
Offre d'emploi
Data Engineer Senior
Publiée le
Apache Kafka
Apache Spark
Hadoop
Paris, France
Télétravail partiel
En tant qu’Ingénieur Data Senior, vous jouerez un rôle clé dans la conception, le développement et l’optimisation de solutions data innovantes pour le secteur bancaire. Vous serez un membre essentiel de l’équipe Data Engineering et collaborerez avec des experts métiers, data scientists et développeurs pour transformer les plateformes digitales de nos clients. Vos missions principales Concevoir, développer et maintenir des solutions big data robustes et évolutives avec Hadoop, Spark, Kafka… Mettre en œuvre des pipelines de données temps réel et batch pour des cas d’usage complexes Garantir la qualité, la sécurité et la conformité des données à chaque étape du cycle de vie Intégrer des solutions de streaming avec Kafka pour des analyses quasi temps réel Développer et maintenir des microservices en Node.js Encadrer les ingénieurs juniors et promouvoir les bonnes pratiques
Offre d'emploi
Lead QA Rouen
Publiée le
API
CI/CD
Cypress
3 ans
40k-45k €
400-550 €
Rouen, Normandie
Télétravail partiel
Redlab recherche un Lead QA pour accompagner l’un de nos clients dans le secteur de l’assurance dans le cadre d’un renforcement d’équipe. 🎯 Objectif de la mission Garantir la qualité des livrables applicatifs, structurer la stratégie QA et piloter la montée en maturité du test au sein de la DSI. Vos missions Définir la stratégie de test et les bonnes pratiques QA. Organiser, planifier et suivre l’ensemble des campagnes de tests . Implémenter et améliorer les processus QA (CI/CD, automatisation, outillage…). Superviser l’activité des testeurs et assurer un rôle de référent qualité . Travailler en étroite collaboration avec les équipes produit, dev, PO et MOA. Garantir la qualité des releases et le respect des normes internes. Participer à la mise en place de tableaux de bord qualité / KPI QA.
Offre d'emploi
Data Engineer Expérimenté
Publiée le
Microsoft Power BI
18 mois
40k-45k €
100-450 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions :Data Management Data Engineer Spécialités technologiques : ETL, Gouvernance des données, Intégration de données MISSIONS Notre client est engagé dans une transformation en profondeur et la modernisation de son Système d’Information. Les équipes Data, intégrées à la DSI, jouent un rôle central dans la réussite de ces projets de modernisation, tant sur le plan technologique que métier. Vous interviendrez sur plusieurs axes clés : - Conception et développement d’outils et de processus de gouvernance des données. - Mise en place d’outils de pilotage de la qualité, de la sécurité et de la traçabilité des données. - Développement de solutions et de processus visant l’amélioration continue de la qualité de service. - Participation au suivi de la production en tant que lead de l’équipe Data sur les projets de run. - Analyse des incidents de production et des tickets utilisateurs de niveau 1. - Développement et maintenance des traitements ETL Batch Data sous Semarchy xDI. - Rédaction et publication de rapports et indicateurs flash sur la qualité de service du SI Data. Vos missions : - Développer des traitements de contrôle de la qualité des données, notamment industrialisés - Assurer le suivi de production et l’analyse des incidents de premier niveau. - Traiter et résoudre les incidents liés à la qualité des données : analyser les causes, identifier et solliciter les bons interlocuteurs pour leur résolution. - Contribuer à l’amélioration continue et au renforcement de la qualité de service, en collaboration avec les équipes de Gouvernance des Données.
Mission freelance
Data engineer senior/Tech lead Migration IDQ Fabric (F/H) - 75
Publiée le
Databricks
Microsoft Fabric
PySpark
12 mois
400-770 €
Paris, France
Télétravail partiel
Notre client migre ses flux ETL d’Informatica vers Microsoft Fabric pour ses besoins en data ingestion et analytics. Le projet concerne principalement le domaine Finance, avec un modèle pivot centralisant contrats, positions, instruments de couverture, flux futurs, contreparties et données de marché. Environnement technique : * ESB (Software AG), * ETL (Informatica), * Data Platform (Fabric/Power BI) Mission En tant que Tech Lead Data, vous serez responsable de : * Définir les standards techniques (Fabric, Spark, Python) et bonnes pratiques de développement. * Piloter la migration des flux Informatica vers Fabric : * Évaluer l’existant (flux, modèles pivots, dépendances). * Concevoir le framework d’ingestion/transformation (Spark, Notebooks). * Mettre en place la CI/CD (Azure DevOps/GitHub). * Assurer le monitoring et la qualité des données. * Encadrer une équipe de 3 Data Engineers (mentorat, optimisation des performances). * Collaborer avec les équipes métiers (Finance/Risque) et l’architecture IT.
Offre d'emploi
Data Engineer H/F
Publiée le
BigQuery
Google Cloud Platform (GCP)
Microsoft Power BI
12 mois
45k-55k €
350-450 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
HN Services recrute un.e Data Engineer expérimenté à sénior pour intervenir sur un projet Data pour l’un de nos clients situé à Aix-en-Provence. Contexte et mission : Dans le cadre du renforcement de l’équipe Data, vous serez intégré.e à une squad dédiée à la création d’une infrastructure robuste pour le produit DATA. Vous participerez à la conception et au développement de processus d’ingestion, de transformation et d’exposition des données sur la plateforme Google Cloud Platform (GCP). Vous collaborerez étroitement avec d’autres équipes pour : Mettre en place les jobs d’ingestion et de préparation des données. Développer des pipelines de données performants et maintenables. Exploiter les outils de l’écosystème cloud : Composer, dbt, BigQuery. Contribuer à l’amélioration continue des capacités de livraison du produit DATA. Environnement technique : GCP BigQuery, Linux, Python, SQL, dbt, Composer.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
858 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois