L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 406 résultats.
Offre d'emploi
CP IA-RPA CONFIRME (H/F)
Publiée le
Power Automate
RPA (Robotic Process Automation)
UiPath
12 mois
Roissy-en-France, Île-de-France
Télétravail partiel
Dans le cadre d'une stratégie de digitalisation, le Chef de Projet IA/RPA jouera un rôle clé dans l'identification, la structuration et la mise en oeuvre de solutions innovantes en Intelligence Artificielle et automatisation des processus (RPA). La mission vise à maximiser la valeur ajoutée des projets IA & RPA, tout en assurant un alignement constant entre les équipes techniques et les métiers. Les solutions IA peuvent être : - Prédictives - Génératives - Conversationnelles - Embarquées dans des solutions SaaS Pour la RPA : - Les développements standrads s'appuient sur UiPath - L'approche Citizen Developer privilégie Power Automate
Offre d'emploi
Data Manager
Publiée le
Dataiku
Microsoft SQL Server
Sass
1 an
40k-45k €
330-540 €
Paris, France
Télétravail partiel
Contexte de la mission Cette mission s'inscrit dans le contexte actuel de l'augmentation de la surveillance réglementaire sur les activités de financement associées aux Private Equity (PE) et Private Crédit (PC). Au sein du département RISK, l'équipe Data Management a pour rôle d'accompagner les équipes RISK dans leurs activités quotidiennes en mettant en œuvre des solutions agiles et innovantes en termes de traitement, d'automatisation et de visualisation des données ; et contribue aux demandes réglementaires complexes à l'échelle du Groupe nécessitant une forte expertise technique et fonctionnelle des données. Sur le périmètre crédit, la production d'analyses de portefeuilles et d'exercices réglementaires s'effectue dans l'environnement UDS (Unified Data Set), une solution SAS pour la collecte et la préparation des données et SQL Server / Tableau Server pour la visualisation des données. Une migration de la plateforme de collecte et de préparation des données de SAS vers Dataïku est en cours de finalisation dans le cadre d'un projet Risk Data Services. La mise en service de la nouvelle plateforme est prévue début 2026. Sur cette nouvelle plateforme, l'UDS devra évoluer pour intégrer un nouveau besoin permettant à la banque de mieux monitorer ses risques face à des contreparties financées par des Private Equity ou des Private Credit. Cette mission consistera à implémenter une solution pour couvrir ce besoin au niveau de l'UDS, d'abord en mode tactique puis en mode cible. Dans le cadre de cette mission, de nouvelles données devront être collectées, contrôlées, agrégées et restituées dans des dashboards. Cette mission s'inscrit dans un projet plus global qui vise à faire évoluer l'ensemble du dispositif IT RISK/Finance pour couvrir ce besoin d'une manière globale.
Offre d'emploi
DATA ANALYSTE CONTENUS JEUNESSE
Publiée le
JIRA
18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : La Direction Data recherche une prestation en Data Analyse pour accompagner les équipes produits et éditoriales dans l’analyse de la performance des contenus jeunesses. MISSIONS - La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications. (Prise en compte des besoins des équipes interne, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du Dashboard, itérations mode projet..) - Le maintien du bon fonctionnement des dashboards existant sur Power BI. - L’accompagnement et le coaching des équipes internes sur l’intégration de la data dans leur processus de décision et de priorisation (AT Internet, Nielsen, marqueur interne). - La mesure et l’analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l’équipe études. - L’accompagnement des équipes internes dans l’identification des indicateurs/ KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l’ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul - Le partage de son expertise afin de déployer notre marqueur interne sur d’autres produits. - L’identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes. Expertises demandées pour la réalisation de la prestation : Pour mener à bien la prestation, le prestataire devra maitriser les expertises suivantes : - Maitrise des Piano Internet et eStat Streaming/Nielsen exigée. - Maitrise du tracking sur Web, App, et TV. - Expertise en analyse de parcours avec ContentSquare - Aisance analytique demandée, et maitrise de Power BI exigée. - Expertise en accompagnement/coaching data - Maîtrise de la mise en place de reporting et production des bilans - Capacité en gestion de projet - Maîtrise d’Excel, powerpoint , Jira, Confluence. - Maitrise du SQL nécessaire et connaissance de GCP -Maitrise de GetFeedBack – Usabilla pour la mise en place des NPS. - Connaissance de Power Automate pour automatiser certains process -Expérience dans les médias
Offre d'emploi
Développeurs JAVA Back-End
Publiée le
Back-end
Docker
Git
1 an
40k-50k €
400 €
Île-de-France, France
🔎 Recherche : 3 Développeurs JAVA Back-End Senior (8+ ans) – Secteur bancaire Missions : Conception et développement de solutions JAVA de qualité Support applicatif Travail en méthodologie Agile Contribution à l’amélioration continue Environnement : Java 8/17/21, Spring / Spring Boot, Spring Data, Spring Batch, Microservices, Cloud, Jenkins, Maven, Git, TDD, PostgreSQL, Oracle (Notions : Docker, Kubernetes, BDD, Architecture Hexagonale) 👤 Profil recherché Développeur JAVA Back-End Senior 8 ans d’expérience minimum Expérience significative en secteur bancaire ou financier fortement appréciée
Offre d'emploi
Data Governance Officer
Publiée le
Data governance
1 an
60k-65k €
570-620 €
Île-de-France, France
Télétravail partiel
Titre du poste : Data Gouvernance Officer – Asset Management Description du poste : Le Data Gouvernance Officer est responsable de la mise en place, du suivi et de la conformité des politiques de gouvernance des données au sein des activités d’Asset Management. Il/elle assure la qualité, la sécurité et la conformité des données, favorisant leur utilisation optimale dans les processus métiers et la prise de décision. Missions principales : Définir, déployer et maintenir la politique de gouvernance des données Asset Management. Piloter la qualité des données et coordonner les actions de nettoyage, de standardisation et d’enrichissement. Assurer la conformité réglementaire et normative (ex. : MIFID, FATCA) liée aux données financières. Collaborer avec les équipes IT, métiers, et conformité pour garantir l’intégrité et la sécurisation des données. Mettre en place des indicateurs de suivi de la qualité des données et produire des rapports réguliers. Sensibiliser et former les utilisateurs sur les bonnes pratiques et la gouvernance des données.
Mission freelance
Expert NoSQL
Publiée le
AWS Cloud
Docker
Elasticsearch
12 mois
400-500 €
Paris, France
Télétravail partiel
Nous recherchons un Expert NoSQL Objectif global : Accompagner le client avec une Expertise NoSQL Les livrables sont: POC et guides d’architecture NoSQL Souches et scripts conteneurisés (Docker/OpenShift) Rapports d’audit et documentation technique consolidée Compétences techniques: ElasticSearch / GraphDB (Cypher, RDF, LPG) - Expert - Impératif Docker / Kubernetes / OpenShift / Linux RedHat - Confirmé - Impératif DevOps – CI/CD (GitLab, Jenkins, Cloud AWS/GCP) - Confirmé - Impératif Description: Recherche un Expert NoSQL confirmé pour accompagner la création d’un centre de compétences interne autour des technologies NoSQL (ElasticSearch, GraphDB). Vous interviendrez sur la conception, l’industrialisation et l’optimisation d’environnements conteneurisés (Docker/OpenShift) hébergés sur cloud hybride (on-premise / AWS / GCP). Mission longue Compétences essentielles : - ElasticSearch / GraphDB (Cypher, RDF, LPG) - Docker / Kubernetes / OpenShift / Linux RedHat - DevOps – CI/CD (GitLab, Jenkins, Cloud AWS/GCP) Livrables principaux : - POC et guides d’architecture NoSQL - Souches et scripts conteneurisés (Docker/OpenShift) - Rapports d’audit et documentation technique consolidée
Offre d'emploi
Développeur FullStack Java/React
Publiée le
Git
Google Cloud Platform (GCP)
Java
12 mois
40k-50k €
400-450 €
Seine-Saint-Denis, France
Télétravail partiel
Contexte de la mission – Plateforme Digitale SaaS Nous recherchons un Développeur Full Stack expérimenté pour participer au développement d’une plateforme SaaS qui centralise des outils de calcul d’empreinte environnementale. La plateforme permet de : Quantifier l’empreinte carbone et hydrique, Réaliser un diagnostic avancé de la biodiversité, Accompagner les démarches commerciales et techniques des utilisateurs et le suivi des plans de réduction d’impact écologique. Objectifs de la mission et responsabilités Le développeur sera intégré à une équipe Agile et participera activement à la réalisation du backlog produit. Ses principales missions incluent : Participer au design et au développement des composants logiciels, Développer, tester (unitaires et E2E) et mettre en production les fonctionnalités via la chaîne CI/CD , Assurer la qualité des livrables (réduction des défauts, documentation technique, respect des bonnes pratiques et standards, utilisation de SonarQube), Contribuer à la bonne réalisation des projets de l’équipe en collaborant avec le Scrum Master, Product Owner, UX Designer, Architecte et Product Manager, Proposer des solutions techniques adaptées aux contraintes du programme, Participer aux cérémonies Scrum et aux activités de l’équipe agile. Livrables attendus : User Stories testées, documentées et mises en production à chaque sprint.
Offre d'emploi
Consultant Fonctionnel BI Agile / Product Owner
Publiée le
IBM DataStage
JIRA
PostgreSQL
50k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
✨ CITECH recrute ! Vous souhaitez rejoindre un environnement stimulant et prendre part à des projets data stratégiques ? Nous recherchons un(e) Consultant Fonctionnel BI / Product Owner (H/F) pour renforcer une équipe décisionnelle et intervenir sur des sujets à forte valeur ajoutée. 🙌 Vos missions principales 🧩 Conception & Spécifications Participer aux études de cadrage et analyser les besoins métiers. Rédiger les conceptions générales et détaillées (SFG / SFD). Modéliser les données sous Hopex / MEGA . Garantir la cohérence des solutions proposées. 🚀 Pilotage Agile & Coordination Intervenir comme Product Owner délégué auprès des équipes SCRUM. Prioriser, rédiger et chiffrer les User Stories . Valider les développements livrés. Structurer le découpage des activités dans Jira . Assurer la coordination avec la MOA, les architectes et les équipes techniques. 🔧 Suivi & Maintenance Suivre les phases de réalisation et accompagner l’équipe durant les sprints. Participer au RUN : prise en charge des anomalies et évolutions.
Offre d'emploi
Chef de projet Infrastructure / Project Management
Publiée le
Data governance
SLA
1 an
40k-45k €
330-440 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Dans un contexte international et pour des raisons d'efficacité, il s'agit de suivre et renforcer le suivi de projets transverses principalement sur des sujets de production et sécurité. Mise en place de roadmap avec les équipes, suivi de projet, facilitator, reporting sur plusieurs types de projets BAU et non BAU : Exercice de restoration Implementation des plans des Risk cards Mise en place de roadmap consolidées des équipes APS Mise en place et preparation de Production Steering Committee Renforcement des controles ITIL Préparation des Services Review, SLA Preparation weekly change board Preparation de revue P1/2/PIR
Offre d'emploi
Data Engineer
Publiée le
Apache Hive
Apache Kafka
Apache Spark
6 mois
Vannes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer confirmé : Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
Mission freelance
Consultant Power BI / Progiciel ITSM Orleans ou Paris, 3 jours de TT
Publiée le
ITSM
Microsoft Power BI
2 mois
400-450 €
Paris, France
Télétravail partiel
Consultant Power BI / Progiciel ITSM Jira/ SMAX VIO Sur Orleans ou Paris, 3 jours de TT. Démarrage asap. Power BI, dans le cadre d'une migration d'outils ITSM de Jira vers SMAX Compétences · Esprit d'analyse et qualité rédactionnelle. · Rigueur, bon relationnel et pragmatisme. · Maîtrise de PowerBl. · Des connaissances techniques sur SMAX VIO ou Progiciel ITSM équivalent seraient un plus. · Facultés d'adaptabilité, d'autonomie, de réactivité et de sens du service. Le client actuellement un programme de transformation technique et organisationnelle avec un basculement de son outil logiciel JIRA supportant ses processus ITIL vers l'outil cible du Groupe (UNITY basé sur SMAX V10) afin de se conformer aux pratiques et processus partagés au niveau de l'ensemble du groupe. Dans le cadre du projet UNITY, le 1er lot de travaux portant sur les processus de gestion des incidents (GDI), gestion des problèmes (GDP) et gestion des changements (GDC) est en cours de tests sous UNITY. Un 2nd lot de travaux portant sur les processus de gestion de la demande (GDD) débute sur le dernier trimestre 2025. Missions La mission consistera, en renfort de l'équipe projet UNITY : · Dans un premier temps, à implémenter sous PowerBl les rapports opérationnels de pilotage des processus du 1 er lot de travaux. · Dans un second temps, à participer à l'analyse d'écarts, l'élaboration du besoin et des spécifications ainsi qu'à implémenter sous Power BI les rapports opérationnels de pilotage, pour les processus du 2nd lot de travaux. Compétences · Esprit d'analyse et qualité rédactionnelle. · Rigueur, bon relationnel et pragmatisme. · Maîtrise de PowerBl. · Des connaissances techniques sur SMAX VIO ou Progiciel ITSM équivalent seraient un plus. · Facultés d'adaptabilité, d'autonomie, de réactivité et de sens du service.
Mission freelance
Data engineer ETL(IDQ)/python (F/H) - 75 + Remote
Publiée le
Data quality
ETL (Extract-transform-load)
Linux
12 mois
400-650 €
Paris, France
Télétravail partiel
Notre client recherche un Data Engineer ETL (Informatica / Python) pour renforcer son équipe IT au sein du domaine Finance. L’environnement technique comprend : Un ESB (Software AG) pour les traitements temps réel Un ETL (Informatica) pour les traitements batch Une Data Platform pour l’analytics (Microsoft Fabric / Power BI) Un plan de migration est en cours pour basculer les flux d’Informatica vers Microsoft Fabric. Mission Le data engineer interviendra sur le « data hub » finance, qui alimente les outils de finance. Missions principales : Phase 1 * Maintenance et support des flux existants (Informatica) * Maintenance évolutive et corrective des flux du data hub * Support aux équipes intégration et métiers * Suivi et monitoring des traitements * Analyse et résolution des incidents de production Phase 2 * Projets de migration et nouveaux développements * Participation aux projets de migration des flux vers Microsoft Fabric * Analyse des besoins et des données sources * Modélisation dans le modèle pivot du hub * Conception et développement de nouveaux flux * Rédaction de spécifications techniques/fonctionnelles détaillées * Tests unitaires et de non-régression Coordination avec les autres équipes techniques Déploiement et support post-mise en production
Mission freelance
Data Engineer (IA/Géospatial) (H/F)
Publiée le
MLOps
Python
6 mois
300-350 €
Toulouse, Occitanie
Télétravail partiel
Notre client, spécialiste du Traitement et Analyse de données, est à la recherche de son futur Data Engineer (IA/Géospatial) (H/F) pour son site de Toulouse, dans le cadre de son activité. Intégré aux équipes du client, vous devrez : * Développer et industrialiser des pipelines et modèles IA exploitant des données géospatiales et météorologiques, dans un environnement cloud-native. ## Compétences techniques attendues * Données météo & satellites Maîtrise des formats (NetCDF, GeoTIFF, HDF5), outils Python (xarray, rasterio…), prétraitement d’images, expérience Sentinel-1/2 et données météo (ARPEGE, AROME, GFS, ERA5). * Data Engineering Pipelines ETL/ELT scalables, orchestration (Airflow, Prefect, Argo), bases de données (PostgreSQL/PostGIS, MongoDB, Snowflake), optimisation des accès. * MLOps & DevOps Déploiement de modèles (CI/CD, monitoring), outils ML/Cloud (MLflow, SageMaker, Docker, Kubernetes, Terraform), AWS/Azure/GCP. * Développement logiciel Python, frameworks web (FastAPI, Django, Flask), bonnes pratiques (tests, docs, versioning).
Mission freelance
Data Analyst - Infogérance - Lille (H/F)
Publiée le
Microsoft Power BI
SQL
6 mois
500-550 €
Lille, Hauts-de-France
Télétravail partiel
Rejoignez l'une des entreprises leaders dans l'optimisation et la transformation digitale au sein du secteur des services numériques. Basée à Lille et rayonnant sur tout le territoire français, notre entreprise s'engage à offrir des solutions innovantes à ses clients afin de les accompagner dans leur évolution. Face à une croissance constante et à une demande accrue pour des analyses de données précises et transformantes, nous recherchons activement un(e) Data Analyst pour renforcer notre pôle Data. Vous travaillerez étroitement avec les métiers pour transcrire leurs besoins en solutions data-driven, assurant la qualité et la pertinence des insights. Missions - Élaborer le cadrage fonctionnel des cas d’usage avec les différents métiers de l'entreprise. - Traduire des besoins métier en datasets, KPIs et tableaux de bord efficaces. - Réaliser des explorations approfondies de données avec un fort accent sur le storytelling. - Assurer la documentation et la qualité des données. - Contribuer à la mise en œuvre des cas d’usage sur Power BI / Fabric en tant que data consommateur. - Fournir un support aux POC/expérimentations IA en collaboration avec les Data Engineers.
Offre premium
Offre d'emploi
Ingénieur DATA / DEVOPS (F/H)
Publiée le
AWS Cloud
Data analysis
DevOps
Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
Mission sur SOPHIA ANTIPOLIS 4 jours de présentiels (préférable d'habiter la région Alpes maritimes) En vue d'embauche en CDI Notre client, une start-up dans l'énergie, recherche un tech lead pour accompagner les équipes dans le développement de leur solution de prévision météo. Mission principale : Assurer le pilotage technique et la mise en production des solutions de prévision solaire développées, en garantissant la robustesse, la scalabilité et la fiabilité de l’infrastructure data et logicielle. Responsabilités clés : Data Engineering : maintenir et optimiser les pipelines de données (météo, satellite, capteurs PV) pour les modèles de prévision. Infrastructure & DevOps : Déploiement et gestion des environnements cloud (AWS). Mise en place et maintenance de l’Infrastructure as Code (Terraform). Automatisation et optimisation des déploiements via CI/CD (GitHub Actions). Orchestration des tâches : concevoir, monitorer et optimiser les workflows de données et de calcul via Dagster. Opérations métiers : garantir la bonne exécution des codes de prévision (algorithmes, modèles, calculs intensifs) en production. Onboarding & Process : structurer et gérer les procédures d’onboarding technique des nouveaux clients et des PoCs. Qualité & Sécurité : veiller à la résilience, à la sécurité et à la performance des systèmes déployés. Compétences attendues : Solide expérience en Data Engineering et/ou DevOps. Maîtrise de AWS et des outils Terraform. Connaissance des bonnes pratiques CI/CD et expérience avec GitHub Actions. Expérience en orchestration de workflows de données (idéalement Dagster, sinon Airflow ou équivalent). Compétences en scripting (Python, Bash) et monitoring. Capacité à travailler dans un environnement agile, en lien avec des data scientists et des équipes projet. Esprit de structuration et sens des responsabilités pour accompagner la croissance d’une scale-up deeptech.
Offre d'emploi
Data Engineer (H/F) - Lyon
Publiée le
Apache Airflow
MLOps
PySpark
1 an
40k-45k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Notre client, acteur majeur du secteur [énergie / distribution], recherche un.e Data Engineer confirmé.e pour renforcer ses équipes Data. Le poste combine Data Engineering et MLOps , avec une implication sur l’ensemble du cycle de vie des pipelines de données et modèles ML. Missions principales : Data Engineering (intervention sur 2 projets) Concevoir, développer et maintenir les pipelines de données pour 2 applications disctinctes. Assurer l’ingestion, la transformation et le stockage de données à grande échelle. Optimiser les traitements pour garantir des performances adaptées aux volumes traités. Mettre en place des mécanismes de qualité des données (contrôles, alertes, monitoring). Collaborer avec le pôle Développement pour définir les interfaces de données (API, bases de données). Documenter les flux de données et maintenir le catalogue de données. MLOps (Intervention sur 1 des 2 projets) Industrialiser l’entraînement des modèles ML pour l’optimisation du dimensionnement des groupes électrogènes. Déployer des pipelines CI/CD pour les modèles ML (versioning des données et modèles, automatisation de l’entraînement). Assurer le monitoring des performances des modèles en production (drift detection, métriques de performance). Collaborer avec les Data Scientists pour faciliter le passage des modèles du développement à la production.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- Calcul de l'indemnité de la rupture conventionnelle
- Gestion d’entreprise : astuces pour freelances IT
2406 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois