L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 174 résultats.
Mission freelance
Business Analyst - Data Platform
Publiée le
Business Analyst
Control-M
Microsoft SSIS
1 an
400-600 €
Paris, France
Télétravail partiel
Mission : Mission située au sein de la DSI au niveau de l’équipe Data et Reporting d'un acteur financier. La mission consistera à être Business Analyst sur la plateforme Data du SI. Analyse des besoins : Comprendre les besoins des parties prenantes et des utilisateurs finaux afin de définir des exigences claires pour des projets liés aux données. Cadrage de projet : Travailler avec des équipes techniques de la DSI (architectes, data engineers, MOA/MOE des autres applications), autres DSI du groupe, et non techniques (direction financière, conformité, direction des risques, direction commerciale) afin de cadrer un projet (solution, chiffrage, planning, …) Pilotage de projet : définir et suivre les engagements / assurer le reporting et le dialogue avec les interlocuteurs métiers Analyse des demandes du métier : Sur la base d’une expression de besoins ou de spécifications fonctionnelles générales, réalisation de l’analyse, en lien avec les développeurs, puis établissement des chiffrages et du planning de mise en œuvre des évolutions. Spécifications fonctionnelles : A partir des expressions de besoins, rédaction des spécifications fonctionnelles détaillées à destination des équipes de développement. Préparation et réalisation des recettes : Rédaction des cahiers de recettes et validation du bon fonctionnement technico-fonctionnels des applications. Assistance et support : Assurer l’assistance auprès des utilisateurs, analyser les dysfonctionnements et proposer des solutions correctives/palliatives chiffrées.
Mission freelance
Chef de Projet Build IT (H/F)
Publiée le
DataCenter Infrastructure Management (DCIM)
Gestion de projet
LAN
6 mois
100-510 €
La Hague, Normandie
Si piloter des projets IT complexes est pour toi une passion plus qu'une compétence, rejoins notre univers technique qui t'attend de pied ferme avec ce poste de Chef de Projet Build IT ! 🚀 Ton challenge si tu l’acceptes : Piloter le portefeuille de projets IT depuis la spécification jusqu’au déploiement et la transition vers le RUN Assurer la relation avec les fournisseurs et les clients, participer aux comités projet et comités de pilotage Spécifier les besoins, rédiger les cahiers des charges et lancer les appels d’offres Franchir les jalons clés : Go étude, Go projet, Go live Garantir le respect des délais, des coûts et de la qualité (OTD, OBD, KPI…) Déployer les solutions techniques et organiser la maintenance et le support utilisateur Participer à la formation des utilisateurs et accompagner la montée en compétence des équipes
Mission freelance
Senior Azure Data Engineer
Publiée le
Automatisation
Azure
Data Lake
6 mois
400-550 €
Paris, France
Télétravail partiel
Concevoir, construire et maintenir des pipelines d'ingestion de données à l'aide d'Azure et d'outils ETL (Talend, Informatica). Intégrer diverses sources de données dans les environnements Azure Data Lake et Databricks. Garantir l'évolutivité, la performance et la sécurité des solutions de données. Optimiser les flux de travail et automatiser les processus afin de réduire les interventions manuelles. Collaborer étroitement avec les analystes métier pour traduire les besoins en solutions techniques. Gérer plusieurs projets simultanément, en assurant le respect des délais et des bonnes pratiques. Mettre en œuvre des contrôles de qualité des données et des normes de documentation. Contribuer aux initiatives d'amélioration continue au sein de l'équipe DataOps.
Mission freelance
Actuaire SENIOR - Gouvernance & Validation Modèles Internes
Publiée le
6 mois
500 €
75001, Paris, Île-de-France
Objectif : Refonte du modèle interne partiel pour répondre aux exigences réglementaires (ACPR). Renforcement du dispositif de gouvernance et du plan de validation des modèles internes. Missions principales : Revue des modèles stochastiques (catastrophe, frais, rachats, agrégation). Développement des tests de sensibilité et intégration des critères de validation. Validation des changements de modèles selon les guidelines EIOPA. Contribution à la gouvernance et documentation des modèles (axes MRM : entrées, conception, implémentation, monitoring, performance, gouvernance, documentation). Refonte du plan de validation avec seuils de matérialité et processus de validation des évolutions. Compétences requises : Expérience en validation et gouvernance des modèles internes. Solide connaissance du cadre prudentiel Solvabilité II et des guidelines EIOPA . Bon niveau en Python (lecture et compréhension de code). Autonomie, esprit critique, excellentes qualités rédactionnelles et relationnelles. Profil recherché : Actuaire senior confirmé ( +9 ans d'expérience ). Expertise en gouvernance des risques et modélisation. Durée : 6 mois (01/01/2026 - 30/06/2026). Lieu : Paris (75013).
Mission freelance
DATA ARCHITECTE
Publiée le
Data analysis
12 mois
400-660 €
Paris, France
Télétravail partiel
Notre client, un grand groupe bancaire international, renforce sa Direction IT dans le cadre de la transformation de son Système d’Information. Au sein du pôle “Gouvernance & Architecture”, vous rejoindrez l’équipe “Architecture d’Entreprise” pour piloter un programme transverse visant à fiabiliser la cartographie des données et des flux applicatifs . 🚀 Vos missions Cadrer le projet et définir le Target Operating Model (TOM) Collecter les informations via les outils collaboratifs internes Produire et/ou réviser la cartographie des applications déployées Développer des interfaces facilitant la consultation du référentiel des cartographies Piloter les chantiers, la roadmap et les livrables Définir les processus opérationnels, la gouvernance et le RACI Animer la communauté de contributeurs (Data Office, Architectes, Application Managers) Suivre les plans d’action et garantir l’avancement des objectifs 🧠 Votre profil Minimum 10 ans d’expérience dans la gestion de projets IT ou l’architecture d’entreprise Maîtrise des frameworks d’architecture , principes d’urbanisation et standards de modélisation Solides compétences en pilotage de projet, planification et gestion des risques Capacité à coordonner des équipes internationales et à communiquer en anglais Esprit analytique, structuré et orienté résultats Force de proposition et approche innovante dans la conduite du changement
Mission freelance
Data Engineer
Publiée le
Apache Spark
Java
ODI Oracle Data Integrator
3 ans
400-550 €
Tours, Centre-Val de Loire
Télétravail partiel
En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data
Offre d'emploi
Data Ops
Publiée le
DevOps
Python
40k-70k €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte - Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. - Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. - Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. - Un outil de Community Management, Sparrow Academy. L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Dans ce contexte, nous faisons appel à une prestation en assistance technique. les missions sont : - Administration/Exploitation/Automatisation système d’exploitation de nos clusters - Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs). - Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture. - Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover. - Rédaction de documents techniques (architecture, gestion des changes et incidents). - Production de livrables de qualité et partage des connaissances à l’équipe. Notre stack technique : - Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP. - Containers: Docker, Kubernetes. Profil recherché : - Compétences avancées sur Kubernetes (Architecture, Administration de Clusters) - Connaissances sur la gestion des secrets (Vault) - Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC). - Bonnes connaissances de GitLab et des processus de CI/CD. - Connaissances de l’approche GitOps ( ArgoCD ) - Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana ) - Connaissances en bases de données relationnelles (PostgreSQL) appréciées. - Anglais correct à l’écrit et à l’oral. - Profil rigoureux. Les sujets traités par l’équipe sont variés : - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité); - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs. Stack Technique de l’équipe : - Langages : Python, Golang, Bash - GNU/Linux - Kubernetes - Observabilité : Prometheus, Thanos, AlertManager, Grafana - Sécurité : Vault - DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni - Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
Offre d'emploi
Cybersécurité expert / Data N3 Varonis/Purview
Publiée le
Big Data
Microsoft Purview
1 an
40k-45k €
400-700 €
Île-de-France, France
Télétravail partiel
Cybersécurité Expert / Data N3 Mission Prestation d'accompagnement dans le but de proposer des services de sécurité autour de la donnée. La mission sera en charge du maintien en condition opérationnelle et du support niveau 3 de la plateforme de gestion de données et des services sur un périmètre de responsabilité international. (Varonis/Purview) Objectifs Principaux Mise en œuvre, maintien et suivi du déploiement de solutions de sécurité autour des données non structurées à l'aide de solutions de gestion et de sécurisation des données. Tâches Attendues Évaluation des exigences fonctionnelles de l'entreprise et détermination des solutions techniques adaptées
Mission freelance
Administrateur / Expert Big Data (Cloudera)
Publiée le
Apache Spark
Cloudera
Hadoop
3 ans
500-700 €
Île-de-France, France
Télétravail partiel
Vous serez en charge du déploiement ainsi que du MCO/MCS de l’écosystème Cloudera (Cloudera Manager, services Cloudera Data Platform : HDFS, Vous interviendrez également sur la gestion d’une architecture Lake house , comprenant : Data Security : Apache Ranger Data gouvernance : Apache Atlas Data processing : Spark, Apache Zeppelin Data ingestion : NiFi Data analytics : Apache Impala Data lake : Hadoop, Apache Kudu Data serving : Hue Responsabilités Documenter les procédures d’exploitation et rédiger des rapports synthétiques Garantir le bon fonctionnement des services dans le respect des SLA Opérer en environnement de production en s’appuyant sur les processus ITIL (gestion des incidents, problèmes, changements) Communiquer en anglais avec les éditeurs (dont Cloudera) et les fournisseurs Automatiser les déploiements (fichiers de configuration, certificats, keystores) via Ansible Utiliser les outils DevOps (GitHub, Jenkins) pour le versionning et les pipelines Exploiter les environnements Linux et analyser les logs dans le cadre du traitement des incidents Être force de proposition concernant l’amélioration de l'exploitabilité, la robustesse et la supervision des services Participer aux réunions d’équipe, aux projets et aux différents comités, et assurer un reporting régulier Livrables attendus Dossier d’ingénierie de la plateforme Lake house Fiches et procédures d’exploitation Dossier de mise en production PV de mise en production
Mission freelance
Ingénieur Data Ops - IA GEN - Azure (H/F)
Publiée le
Azure
Azure AI Foundry
6 mois
Lille, Hauts-de-France
Télétravail partiel
TEKsystems recherche pour le compte de son client : Un(e) Ingénieur Data Ops : Le rôle couvre notamment : La mise en place d’une plateforme d’IA générative (Azure AI Foundry) ; L’industrialisation des flux et processus DataOps ; La mise en place d’API sécurisées via Azure API Management ; L’automatisation des déploiements à l’aide de GitLab CI/CD ; Le développement en Python ; La mise en place de la traçabilité, de l’observabilité et de la gouvernance des usages IA. Le contexte est structurant, très exposé en interne, avec de la construction from scratch, de l’architecture, de l’industrialisation et un vrai rôle de référent technique sur la GenAI.
Offre d'emploi
Chef de Projet Data (22)
Publiée le
Google Cloud Platform (GCP)
SQL
1 an
40k-45k €
400-800 €
Île-de-France, France
Télétravail partiel
Descriptif du poste La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateur, mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Afin d'assurer la coordination de l'ensemble de cas d'usages transverses aux pôles Data. Prestations attendues En interaction avec l'ensemble de la direction data et des directions métiers consommatrices des données (Produit, Editorial, Partenariats, Marketing, Publicité…), la prestation consistera à : Gestion de la coordination intra Data : Assurer la transversalité Data pour les projets transverses entre les pôles (Technique, Intelligence, Management, et Gouvernance) Identification des actions pour chaque équipe Suivi des avancées et remontées des alertes Mise en place la coordination, la documentation, la comitologie projet Remontée au management le suivi de ces sujets transverses Gestion de la coordination inter Data : Point d'entrée pour les principales directions métiers consommatrices des données, et responsabilité de la coordination des différents pôles Data avec les équipes métiers sur leurs besoins (Collecte, tracking, Dashboard, analyses,…) Identification des besoins Représentation de la data dans les instances de coordination projets transverses Suivi des projets en mettant en place la coordination entre les interlocuteurs data et métiers, organisation de la documentation, des ateliers de travail, des réunions de restitution avec les parties prenantes Communication des delivery Data afin d'assurer la promotion des travaux
Offre d'emploi
Data Engineer (14)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Informations Générales Contexte de la Mission Rattachement Direction Data (Direction du Numérique). Intégration à l'équipe Gold Pilotage (PO + 2 Data Engineers) en charge de la mise à disposition des données pour le pilotage des offres numériques via le produit Data4All. Stack : Python, SQL, dbt, BigQuery, Airflow, Terraform/Terragrunt, services GCP. Activités Attendues Maintenir et faire évoluer Data4All et les dispositifs de l'équipe ; qualité des données et support aux utilisateurs. Concevoir & maintenir des modèles de données et pipelines robustes et scalables ; organiser/structurer le stockage. Mettre en place et maintenir des infrastructures scalables, assurer sécurité/stabilité des environnements, workflows CI/CD. Contribuer à la gouvernance (qualité, fiabilité, intégrité), documentation et veille ; participation aux instances Data Ingénieurs.
Offre d'emploi
Data Analyste
Publiée le
Réseaux sociaux
Technologies de l'information et de la communication (TIC)
1 an
40k-45k €
310-420 €
Île-de-France, France
Télétravail partiel
Prestation de Data Analyse pour la Direction de la Communication DigitaleInformations Générales Contexte de la Mission Pilotage de la réputation sur les réseaux sociaux et le web pour la Direction de la communication digitale : veille continue, analyses quantitatives/qualitatives, alertes et recommandations aux directions concernées. Activités Attendues Veille social listening en continu (sujets, tendances, crises) et suivi temps réel d'émissions en direct (soirées). Notes d'analyse rapides (quotidiennes, mensuelles, thématiques, ad hoc). Études réputationnelles liées à des opérations de marketing d'influence. Recommandations stratégiques & éditoriales pour la Direction de la com' digitale et les autres directions.
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
DBT
DevOps
Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
Mission freelance
Ingénieur Système & Data – Monitoring / Maintenance / Big Data
Publiée le
Angular
Apache Spark
Hadoop
3 ans
Île-de-France, France
Télétravail partiel
Contexte de la mission : Au sein de la Direction des Systèmes d’Information d’un grand groupe du secteur financier, vous intégrerez une équipe en charge du pilotage des risques structurels et du reporting financier . L’objectif de la mission est de maintenir et faire évoluer une plateforme technique basée sur la technologie ClickHouse® , en garantissant sa stabilité, ses performances et sa sécurité . Missions principales : La prestation consiste à contribuer aux activités suivantes : Surveillance et monitoring de l’infrastructure ; diagnostic des incidents et anomalies Maintien en conditions opérationnelles de la plateforme (composants, performances, dette technique, montées de version) Rédaction et exécution de scripts de maintenance de l’infrastructure (équilibrage des disques, tuning système, automatisation) Application des exigences de sécurité et des procédures internes (remédiation des vulnérabilités, patching, CI/CD) Définition, estimation et planification des activités techniques Rédaction de spécifications et documentation techniques Support et accompagnement des équipes internes dans la gestion quotidienne de la plateforme
Offre d'emploi
Data Scientist – Expert
Publiée le
Deep Learning
Domino
Framework
6 mois
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Au sein de la Tribe Artificial Intelligence , vous participez au développement d’applications d’IA générative et prédictive. Vos responsabilités : Développer des applications IA (assistants virtuels, outils internes, automatisation). Concevoir des modèles IA robustes et mesurables (qualité, précision, garde-fous). Déployer des modèles en production. Communiquer les résultats aux dirigeants.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Entretiens et tests techniques developpeurs Java Angular junior
6174 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois