L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 712 résultats.
Mission freelance
Data Engineer Devops (4-7ans) - Nantes - H/F
Argain Consulting Innovation
Publiée le
Apache Hive
Artifactory
Gitlab
12 mois
400 €
Nantes, Pays de la Loire
Nous avons besoin d’un renfort de profil développeur pour notre client grand compte dans le secteur bancaire, dont les missions sont les suivantes : Tâches : - Développer des User story relatives à l’ingestion /transformation de données avec des technos de type ETL sur une plateforme Cloudera customisée ou des procédures stockées - Mettre en œuvre les tests unitaires, participer à la recette fonctionnelle avec les Business analyst - Déployer le produit dans différents environnements - Produire la documentation associée à ces développements - Participer à l’affinage et chiffrage des solutions - Garantir et assurer le fonctionnement des produits en production (suivi du run) - Participer aux cérémonies et démarche agile Scrum Attendus : Prise en charge des récits de développement du backlog et des travaux associés (conception /DevTU/Recette/Déploiement ) du périmètre et de la trajectoire des produits de la squad Environnement techniques : Indispensables : ETL Jobfacto / Spark / HIVE / Oozie … Indispensables : Devops : Gitlab, Artifactroy
Mission freelance
Chef de projet Innovation IA
Inventiv IT
Publiée le
Data science
Data visualisation
IA
6 mois
450-550 €
Île-de-France, France
Missions du Chef de projet Innovation IA : - Intervention sur l’ensemble du cycle de vie des projets : collecte et étude du besoin, cadrage, ateliers, bêta-tests, prototypage, etc. - Pilotage des projets : suivi de l’avancement des projets, des tâches à réaliser, coordination des équipes internes et externes. - Réalisation de tests IA : PoC et tests de solutions internes et externes d'IA pour répondre aux impératifs du développement de l’IA du quotidien et des supports - Animation des réunions projets : gestion et animation des réunions de suivi projets, favorisant la coordination et la communication entre les équipes et les décideurs. - Interface métier : être en mesure de coordonner l’intégralité des actions à mener pour assurer la réussite du projet, dans la mesure où elles concernent plusieurs directions ou département - Suivi des indicateurs de performance et amélioration continue : suivi et production de bilans récapitulatifs sur les statistiques et l'adoption des solutions, analyse des KPIs fonctionnels et techniques, fournitures d’éléments et d’information au responsable pour arbitrage des mesures à mettre en œuvre le cas échéant - Intégration des actions nécessaires de formation, d’acculturation et de communication dans le dispositif FAC de CorT-ex. Ex : production de tutos vidéo ou écrits pour la prise en main d’outils, de fonctionnalités ou de technologies, proposition de plan d’acculturation et de communication pour répondre aux enjeux des phases de tests et de pré-déploiement - Rencontres & partenariats startups : à la demande du responsable, prise en charge et organisation du dialogue qui pourrait s’avérait pertinent / productif avec des partenaires publics ou privés, internes comme externes : startups, éditeurs de solutions IA, Médias Francophones Public, Union Européenne de Radiotélédiffusion, grands groupes, laboratoires de recherche et monde de l’enseignement. Exemples de livrables Les livrables attendus dans le cadre du présent marché spécifique sont par exemple : · Indicateurs de suivi projet pour tous les sujets engagés · Supports de présentation des projets · Analyse du besoin / comptes-rendus de réunion · Supports de communication
Offre d'emploi
Data Engineer Senior Snowflake (Lead / Mentoring)
UCASE CONSULTING
Publiée le
AWS Cloud
Qlik
Snowflake
1 an
40k-45k €
400-650 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous 😃 🔎 Contexte Dans le cadre du déploiement de Snowflake au sein de l’équipe Data, notre client recherche un Data Engineer expérimenté pour accompagner la montée en compétence des équipes, structurer l’architecture cible et intervenir sur des chantiers clés (migration & ingestion) 🎯 Objectifs de la mission 1. Accompagnement & montée en compétence Accompagner les équipes dans la prise en main de Snowflake Animer / coanimer des ateliers et diffuser les bonnes pratiques Faciliter l’appropriation des nouveaux workflows et outils 2. Architecture & structuration Concevoir et documenter l’architecture cible Snowflake Mettre en place et optimiser les pipelines d’ingestion et de transformation Garantir la performance, la scalabilité et la robustesse des traitements 3. Gouvernance & qualité de données Définir les règles de gouvernance (rôles, accès, organisation des environnements) Mettre en place des standards de développement (naming, versionning, documentation) Implémenter des processus de data quality (tests automatisés, contrôles de cohérence, fraîcheur…) Mettre en place des mécanismes de data observability et d’alerting Documenter les processus de gestion des incidents 4. Missions opérationnelles Participer à la migration de data products (Athena → Snowflake) Contribuer à l’ingestion et la structuration de nouvelles sources de données 🔧 Must have Expérience significative en tant que Data Engineer Expertise Snowflake (indispensable) Solide maîtrise SQL (optimisation, performance) Expérience en ingestion de données et/ou migration de plateformes data Connaissances en data quality et gouvernance Capacité à accompagner des équipes (pédagogie, mentoring) ➕ Nice to have Expérience sur AWS Connaissance de Qlik Expérience en environnement data moderne (pipelines, orchestration, CI/CD…) Contexte conseil / ESN Expérience sur des sujets de data observability 📍 Modalités Démarrage : Avril 2026 Localisation : Lyon Télétravail : 3 jours sur site/2 jours de TT
Mission freelance
Data Engineer - Lille
ICSIS
Publiée le
Apache Kafka
CI/CD
DBT
2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Offre d'emploi
Architecte SI industriel
ABSIS CONSEIL
Publiée le
Architecture
Cybersécurité
MPLS (MultiProtocol Label Switching)
1 an
75k-80k €
570-650 €
La Défense, Île-de-France
Nous recherchons un Architecte SI Industriel pour piloter la modernisation et l’évolution des systèmes d’information industriels. Ce rôle consiste à concevoir des architectures robustes et sécurisées, coordonner les acteurs techniques, et intégrer les exigences réglementaires (NIS2). L’architecte contribue à la définition des standards, au suivi de la dette technique et à la mise en place d’architectures hybrides pour les systèmes SCADA et IoT. Il participe aux études techniques, au support en run et à la préparation des projets stratégiques. Objectif : garantir un SI industriel performant, évolutif et conforme aux exigences métiers et cyber. Missions principales : Concevoir et modéliser des architectures SI industrielles intégrant les besoins métiers, les exigences de sécurité (NIS2) et les contraintes des projets. Coordonner techniquement les équipes de développement, TMA, infrastructures et exploitation pour garantir la cohérence des solutions. Participer au troubleshooting en phase build et run, et assurer le support lors des mises en production. Suivre et réduire la dette technique (obsolescences, non-conformités, failles de sécurité). Élaborer les standards d’architecture et contribuer aux chantiers d’amélioration continue. Définir la trajectoire SI industriel incluant réseaux LAN/interco, SCADA, GTB, systèmes terrain (automates, IoT). Préconiser des architectures hybrides (locale et centrale) pour les systèmes SCADA et leurs interconnexions. Intégrer les exigences cyber et réglementaires dans toutes les recommandations.
Mission freelance
Consultant Confirmé Data Gouvernance Collibra
Net technologie
Publiée le
Collibra
Data governance
3 mois
Paris, France
Dans le cadre de l’industrialisation de notre démarche de Data Governance , nous recherchons un consultant expert technique Collibra pour rejoindre notre équipe Data, en lien direct avec les architectes DSI. 🎯 Objectif de la mission : Renforcer le catalogage des données et la traçabilité (data lineage) dans un programme structurant couvrant toute la chaîne de valeur de la donnée, de l’acquisition à la restitution. 🔧 Vos principales responsabilités Configuration et évolution de l’ operating model Collibra Modélisation des Data Products et gestion des rôles & permissions Paramétrage des workflows, scripting, APIs, validation rules Gestion des migrations (import/export), manipulation massive d’assets Exploitation et interprétation des connecteurs Modélisation et documentation du technical lineage Déploiement et gestion des environnements DEV/PROD 📦 Livrables attendus : Expressions de besoins & cadrage Workflows configurés Catalogues de données alimentés Lineage documenté Documentation technique (en anglais)
Offre d'emploi
Data Engineer Informatica/Airflow/AWS/DBT
OBJECTWARE
Publiée le
Apache Airflow
AWS Cloud
DBT
3 ans
40k-74k €
400-550 €
Île-de-France, France
Le contexte : L'un des objectifs majeurs du plan de transformation DATA est de développer les applications DATA qui permettent à nos métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI et de déployer des applications destinées à nos abonnés directement (recommandation contenu et offres, etc.). Dans ce cadre, le client a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100To de données par jours: Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique, Socle vidéo, navigation et calcul des audiences, AI pour recommandation des programmes, etc. Feature Store, Moderniser les flux financiers, Content Platform, Mise en place Kubernetes, Plateforme pour le traitement des données CRM et usage, Partager des informations sur les clients à nos partenaires (Netflix, Apple, M6, TF1, etc.), Piloter plus efficacement l'activité des marchés professionnels, Mettre à disposition des applications de data-selfservice. Votre rôle sera de : Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.), Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.), Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs, Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python, Identifier et résoudre les problèmes de performance ou de qualité des données, Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.), Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données, Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.), Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme. Vous maîtrisez Informatica, Snowflake, Airflow, DBT, AWS et aimez les challenges, Vous êtes experts dans le développement de solution d'intégration de données, Vous parlez Anglais couramment, Vous connaissez et maîtrisez les outils JIRA et les méthodes 'agiles' n’ont pas de secret pour vous ! Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique.
Mission freelance
Consultant SAP PP QM Data Migration
SAP-HIRE
Publiée le
SAP
SAP PP
SAP QM
9 mois
Paris, France
Nous recherchons un profil SAP PP QM sur la Data Migration pour renforcer un projet de migration vers SAP S/4. La mission consiste à Identifier et analyser des données à migrer (matériaux, nomenclatures, gammes, données qualité), mapper et définitir les règles de transformation, préparer et charger les données (LSMW / Migration Cockpit), contrôles qualité des données et gestion des incidents, participer aux phases de tests (SIT/UAT) et aux répétitions de migration (cutover). Vous aurez une expérience confirmée en migration de données SAP, une bonne compréhension des données PP & QM, serait autonome, rigoureux et orienté qualité des données. La mission doit se réaliser 3 jours sur site en IDF.
Offre d'emploi
Ingénieur devops - OPS Data & IA
OBJECTWARE
Publiée le
DevOps
3 ans
Île-de-France, France
Dans le cadre de ses activités, une grande organisation du secteur financier recherche un intervenant pour intégrer une entité dédiée à la Data et à l’Intelligence Artificielle . L’équipe est responsable : de la qualité des livrables data du déploiement sur un cloud privé interne de la disponibilité et de la fiabilité des assets Elle conçoit, développe et maintient des plateformes et frameworks de data science . 2. Objectifs de la mission Assurer l’ exploitation et la fiabilité des environnements de production Data / IA Participer à l’ industrialisation des modèles de machine learning Contribuer à la construction et à l’évolution des plateformes data Garantir la qualité, la performance et la disponibilité des services Accompagner les équipes sur les bonnes pratiques DevOps et Data 3. Missions 3.1 Production & Exploitation Administration, exploitation et automatisation des systèmes d’exploitation Gestion et maintien en conditions opérationnelles d’un parc de containers de production Supervision et optimisation des environnements de production Data / IA 3.2 DevOps & Conteneurisation Build, optimisation et maintenance d’images Docker Gestion du RUN d’un volume important de containers en production Participation à l’industrialisation des déploiements via les outils CI/CD et GitOps 3.3 Plateforme Data & IA Construire et porter la vision technique de la plateforme de data science Piloter les choix techniques en lien avec les enjeux Data et IA Contribuer à la conception et à l’évolution des frameworks data 3.4 Innovation & expertise Réaliser une veille technologique active sur les outils et pratiques en Data Science Former et accompagner les équipes sur les technologies les plus pertinentes Être force de proposition sur les évolutions techniques 3.5 Qualité & documentation Rédaction de documents techniques (architecture, gestion des incidents) Production de livrables de qualité Partage des connaissances et bonnes pratiques au sein de l’équipe 4. Stack technique Infrastructure & DevOps GitLab CI/CD GitOps Cloud privé interne Containers & orchestration Docker Kubernetes Observabilité & monitoring Prometheus Grafana Thanos Sécurité & gestion des accès Vault (gestion des secrets) Keycloak, JWT, OIDC Réseau Reverse Proxy (Traefik) Data & stockage PostgreSQL Redis ELK Outils complémentaires Artifactory Certmanager Langages & systèmes Python Golang Bash GNU/Linux 5. Profil recherché Expertise avancée sur Kubernetes (architecture et administration de clusters) Bonne maîtrise des pratiques DevOps / CI-CD / GitOps Solides compétences en production et exploitation Connaissances des environnements Data et IA Compétences en réseau, sécurité et gestion des accès Capacité à évoluer dans un environnement complexe et exigeant 6. Enjeux clés du poste Industrialisation des workflows de Data Science Fiabilisation des environnements de production IA Scalabilité des plateformes Diffusion des bonnes pratiques DevOps et Data
Mission freelance
Data Manager (Power BI)
STHREE SAS pour COMPUTER FUTURES
Publiée le
Microsoft Power BI
6 mois
Paris, France
L’entreprise recherche un expert pour piloter et renforcer la gouvernance BI & Analytics ainsi que la feuille de route du programme, qui vise à harmoniser et professionnaliser les pratiques data à l’échelle de l’organisation. La mission consiste à : Superviser le programme (rationalisation des périmètres, standardisation, amélioration du delivery, opérationnalisation du modèle de fonctionnement). Assurer la gouvernance BI & Analytics au quotidien. Faire du dashboarding (Power BI) Garantir la bonne application des standards Data : Data Governance, Data Quality, Data by Design, et la documentation associée. Contribuer au processus Data by Design avec le DPO, les Data Architects et les équipes projet. Accompagner les Business Data Owners et Data Stewards dans la gestion et la qualité des données, notamment sur certains domaines critiques comme le domaine RH. Livrables attendus : supports de pilotage (COPIL), roadmaps, suivi financier, gestion des risques, documents de gouvernance, inventaires, documentation standardisée, modèles de données et data dictionaries.
Offre d'emploi
Data Scientist sénior F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Spark
Flask
Scikit-learn
Montpellier, Occitanie
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Tech Lead Data GCP Expert F/H
SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker
12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Offre d'emploi
Dev Golang Rest API (au moins 3 ans d'exp)
Digistrat consulting
Publiée le
API REST
Go (langage)
3 ans
40k-55k €
400-550 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🤝Description détaillée Dans le cadre du développement de projets d'AI au sein de la CIB, le client souhaite renforcer l'équipe principalement sur les problématiques back end. L'objectif de la mission est le développement d' un produit autour du NLP. Les projets sont de plusieurs types: - Conception et développement les services basés sur une architecture de micro-services évolutive. - Mise en œuvre de notre API REST ou de nos applications Web qui servent nos entreprises internes ou nos clients externes. - Ecriture du backend in Go et suivi des meilleures pratiques du marché en mettant en place le cadre de sécurité nécessaire à l'aide de OAuth2/OIDC. - Utilisation de notre pipeline d'intégration et de déploiement continu Utilisation des méthodologies Agile. Logiciels de production et d'expédition..
Mission freelance
Data Engineer GCP/Airflow - Junior (H/F)
ODHCOM - FREELANCEREPUBLIK
Publiée le
Apache Airflow
BigQuery
Git
12 mois
350-400 €
Saint-Ouen-sur-Seine, Île-de-France
Data Engineer GCP/Airflow – Junior (Freelance) Mission longue - Démarrage ASAP Nous recrutons pour un client majeur du secteur de la construction et des infrastructures , dans le cadre du renforcement de ses équipes data. Mission freelance de 12 mois minimum (renouvelable), démarrage ASAP 2 jours de télétravail flexible et Localisation Ligne 14 Profils juniors acceptés, 1 an d'expérience min. (stage, alternance, première expérience compris) Formation Bac +5 min. requise Contexte & mission Vous interviendrez sur des outils liés à la gestion de données internes, avec notamment : Analyse et traitement de logs Identification de dysfonctionnements Intégration et transformation de données Alimentation de tables BigQuery Support sur des outils internes (Dataiku, tableaux de suivi…) Vos compétences clés GCP Airflow Python BigQuery Git
Mission freelance
Data engineer GCP
NEOLYNK
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Looker Studio
3 ans
300-450 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Lille 2 jours de TT par semaine démarrage asap mission longue 3 ans
Mission freelance
Consultant Data Migration ERP / Microsoft Dynamics 365 (H/F)
Freelance.com
Publiée le
Microsoft Dynamics
Microsoft Excel
MySQL
3 ans
400-650 €
Nanterre, Île-de-France
Dans le cadre d’un programme stratégique de déploiement Microsoft Dynamics 365 à grande échelle , nous recherchons un Consultant Data Migration senior et opérationnel pour sécuriser la reprise de données sur un projet industriel de longue durée. La mission s’inscrit au sein de l’équipe déploiement, dans un contexte de roll-out multi-entités sur plusieurs années, avec un fort enjeu de continuité opérationnelle et d’industrialisation des processus de migration. Le core model, construit historiquement pour le secteur de la construction, existe depuis plus de 6 ans et doit désormais être déployé à grande échelle. À ce jour, 8 sociétés ont déjà été migrées sur un périmètre cible d’environ 200 entités , avec un potentiel d’extension supplémentaire. L’objectif est de sécuriser, structurer et industrialiser les reprises de données , en dépassant les méthodes trop artisanales basées uniquement sur des templates fichiers. Missions principales Piloter et sécuriser les activités de reprise et migration de données vers Microsoft Dynamics 365 Analyser et consolider des données issues de sources multiples : bases SQL fichiers Excel CSV Reproduire, remettre à plat et fiabiliser les modèles de données dans D365 Structurer les méthodes de migration et les processus de transformation Industrialiser les flux de reprise de données Contrôler la qualité, la cohérence et l’intégrité des données migrées Accompagner les phases de test et les Go-Live Collaborer avec les équipes métiers et les key users Challenger les méthodes actuelles et proposer des axes d’amélioration Enjeux clés Volumétrie importante (milliers d’enregistrements) Multiplicité des sources Déploiement multi-filiales / multi-entités Forte exigence de robustesse et d’autonomie
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2712 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois