L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 080 résultats.
Offre d'emploi
Chef de projet DATA (H/F)
Publiée le
50k-55k €
Nancy, Grand Est
Télétravail partiel
Intégré à une équipe pluridisciplinaire, vos missions seront les suivantes : - Contribuer à la mise en place de solutions DATA et BI chez les clients (du cadrage au déploiement) - Rédaction de cahier des charges et études de faisabilité - Suivi d'avancement du projet, du budget et du planning, - Rédaction ou validation de documents d'analyse fonctionnelle - Formation utilisateurs - Être garant de la qualité des livrables
Mission freelance
Chef de Projet EDI & API / ANGLAIS COURANT H/F
Publiée le
API REST
Échange de données informatisé (EDI)
4 mois
300-400 €
Lezennes, Hauts-de-France
Mission en temps partiel 2JRS / Semaine ● Piloter la migration des flux EDI de TradeXpress vers Tesisquare. ● Coordonner les échanges entre les équipes internes (data, IT) et l’éditeur. ● Assurer l’analyse et la compréhension des besoins métiers et techniques. ● Superviser la conception, le paramétrage et la validation des messages EDI et des appels API. ● Suivre l’avancement, gérer les risques, assurer le reporting et garantir le respect des engagements. ● Participer aux phases de tests (intégration, validation, mise en production). ● Accompagner les équipes internes dans la montée en compétence sur la nouvelle plateforme.
Mission freelance
Senior Data Scientist
Publiée le
ADFS
Analyse financière
Azure
6 mois
550-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre du remplacement d’un consultant senior sortant, tu rejoindras l’équipe Pricing & Revenue Management afin d’assurer la continuité, l’évolution et la fiabilisation des modèles algorithmiques stratégiques. Ton rôle sera clé pour concevoir, développer et optimiser des modèles avancés de pricing et de revenue management, permettant de prévoir, indexer et optimiser les contrats clients dans un contexte business à forts enjeux. 🧠 Missions principales 1. Développement & optimisation de modèles Concevoir et développer des modèles avancés de pricing (indexation, forecasting, optimisation des revenus). Améliorer la performance des algorithmes existants (précision, vitesse, robustesse, explicabilité). Construire de nouveaux modèles data-driven liés au revenue management (élasticité, stratégie tarifaire, scénarios). 2. Engineering & Data Pipeline Développer, maintenir et optimiser des pipelines dans Azure Data Factory & Azure Databricks . Manipuler, transformer et structurer des données dans un environnement big data. Intégrer et orchestrer les données via Azure Lakehouse / ADLS . (Bonus) Utiliser PySpark pour gérer des volumes de données importants. 3. Collaboration & Interaction Business Travailler en étroite collaboration avec les équipes Pricing, Finance et Opérations. Comprendre les besoins business et les traduire en modèles statistiques exploitables. Documenter, présenter et vulgariser les résultats auprès des équipes métier. Garantir une forte réactivité et la fiabilité des livrables compte tenu des enjeux stratégiques. 🛠️ Stack technique Python : indispensable (modélisation, data processing, industrialisation). Azure Cloud : Databricks, ADF, ADLS / Lakehouse. PySpark : apprécié. Méthodes & domain expertise : Pricing algorithmique Revenue management Forecasting (séries temporelles, modèles ML) Optimisation (linéaire, stochastique, contraintes)
Offre d'emploi
Data Engineer Junior (H/F)
Publiée le
Apache Spark
Databricks
Python
3 ans
35k-40k €
350-400 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Intégré(e) au sein d’une équipe Agile, vous participerez à : La conception et la mise en place de pipelines ETL performants L’ingestion, la transformation et la qualité des données La gestion et l’optimisation des flux Data dans un environnement Azure / Databricks / Spark L’automatisation des traitements et le monitoring des workflows La collaboration avec les équipes métier et Data pour répondre aux enjeux opérationnels La collaboration avec les équipes métier et Data pour répondre aux enjeux opérationnels
Offre d'emploi
DATA ENGINEER
Publiée le
24 mois
35k-40k €
250-400 €
Nantes, Pays de la Loire
Télétravail partiel
L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino - Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino). - Mettre en place des modèles de données optimisés et cohérents avec les standards du socle. - Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg). - Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle. Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD. - Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs). - Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka. - Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring). - Être force de proposition sur l'amélioration continue du socle et des workflows de développement. - Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus. - Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective). Les activités confiées supposent la maîtrise de : - Kafka - DBT - Python - Trino
Mission freelance
ingé. Big Data
Publiée le
Big Data
Red Hat Linux
3 mois
Toulouse, Occitanie
Télétravail partiel
Bonjour, je recherche pour l'un de mes clients un(e) ingé. BIG DATA . Skills : Big Data - Red Hat Linux - anglais Mission : -gérer et maintenir les plateformes de données massives -optimiser les performances des systèmes de données -assurer la qualité et la sécurité des données -collaborer avec les équipes de développement pour intégrer les solutions de données -surveiller et maintenir les systèmes de données en production -analyser les besoins en données et proposer des solutions adaptées N'hésitez pas à revenir vers moi pour des informations complémentaires.
Mission freelance
Data engineer ETL(IDQ)/python (F/H) - 75 + Remote
Publiée le
Data quality
ETL (Extract-transform-load)
Linux
12 mois
400-650 €
Paris, France
Télétravail partiel
Notre client recherche un Data Engineer ETL (Informatica / Python) pour renforcer son équipe IT au sein du domaine Finance. L’environnement technique comprend : Un ESB (Software AG) pour les traitements temps réel Un ETL (Informatica) pour les traitements batch Une Data Platform pour l’analytics (Microsoft Fabric / Power BI) Un plan de migration est en cours pour basculer les flux d’Informatica vers Microsoft Fabric. Mission Le data engineer interviendra sur le « data hub » finance, qui alimente les outils de finance. Missions principales : Phase 1 * Maintenance et support des flux existants (Informatica) * Maintenance évolutive et corrective des flux du data hub * Support aux équipes intégration et métiers * Suivi et monitoring des traitements * Analyse et résolution des incidents de production Phase 2 * Projets de migration et nouveaux développements * Participation aux projets de migration des flux vers Microsoft Fabric * Analyse des besoins et des données sources * Modélisation dans le modèle pivot du hub * Conception et développement de nouveaux flux * Rédaction de spécifications techniques/fonctionnelles détaillées * Tests unitaires et de non-régression Coordination avec les autres équipes techniques Déploiement et support post-mise en production
Offre d'emploi
Data scientist
Publiée le
Python
40k-60k €
Paris, France
Télétravail partiel
Ce rôle de Data Scientist est une nouvelle création de poste, avec un démarrage envisagé en janvier 2026 . Le Data Scientist rejoindra l'équipe pour travailler sur des projets d'analyse de données, d'apprentissage automatique (Machine Learning - ML), de collecte de données et de développement d'applications/solutions. Les principales responsabilités incluent : L'analyse approfondie de la donnée. La récolte et le traitement des jeux de données. Le développement et l'implémentation de modèles de Machine Learning. Le déploiement des solutions développées.
Offre d'emploi
Data Scientist
Publiée le
Data science
Machine Learning
40k-62k €
Levallois-Perret, Île-de-France
Télétravail partiel
l’Assistant(e) Externe / Datascience & AI Business jouera un rôle clé dans la conduite et le développement des projets d’intelligence artificielle, depuis le cadrage des besoins métier jusqu’à la mise en production des solutions. Votre mission consistera à allier compétences en gestion de projet et savoir-faire technique en datascience pour garantir la réussite des initiatives IA menées au sein de Personal Finance. Vous interviendrez en appui stratégique et opérationnel, en lien étroit avec les équipes Datascience, IT, et les directions métiers. Vos principales responsabilités incluront : • Piloter et coordonner les projets IA / Data : cadrage, suivi des livrables, reporting et animation des points d’avancement. • Analyser les besoins métiers et les traduire en cas d’usage data exploitables. • Contribuer aux travaux de data science : préparation et analyse de données, validation et suivi de modèles (ML, NLP, IA générative). • Produire des livrables de synthèse (dashboards, rapports, présentations) à destination des équipes métiers et du management. • Assurer la communication transverse entre les équipes techniques et métiers, et participer à la documentation et la capitalisation des bonnes pratiques.
Mission freelance
Chef de projet Data et IA
Publiée le
Data management
IA
IA Générative
6 mois
400-500 €
Île-de-France, France
Télétravail partiel
Pour le compte de notre client qui opère dans le secteur bancaire , nous recrutons chef de projet Data et IA (h/f). L'objectif de la prestation est de renforcer l’équipe des chefs de projet du DataLab Groupe pour traiter les projets Data / IA / IA GEN confiés à la Direction Data & IA. Indispensable : Expérience confirmée , des interventions récentes en pilotage de projets Data + IA (non seulement en data) JavaScript / TypeScript Envoyez vos candidatures via la plateforme ou à l'adresse mail Besoin n'est pas ouvert à la sous-traitance.
Offre d'emploi
Expert Kubernetes / Anthos Projet Cloud & Edge Computing-ile de France (H/F)
Publiée le
Agile Scrum
Ansible
Cloud
1 an
Île-de-France, France
Contexte du besoin Dans le cadre d’un projet stratégique de mise en place d’un Cloud hybride basé sur Anthos / Kubernetes , nous recherchons une expertise senior afin d’accompagner le déploiement, l’industrialisation et le support de la plateforme sur des infrastructures Edge. Mission L’expert interviendra au sein d’une équipe Cloud en méthodologie Agile, et sera responsable de : La mise en œuvre d’Anthos / Kubernetes sur des infrastructures Edge Computing hybrides (cloud public + infrastructures locales). Le déploiement complet des environnements , du développement jusqu’à la production. La mise en place de l’automatisation via Ansible et Terraform . La rédaction des documentations techniques et la montée en compétences des équipes infrastructure. Le support opérationnel de la solution en production. L’ accompagnement des équipes projets sur les bonnes pratiques Kubernetes / Anthos. Livrables Environnements déployés (dev → prod) Services automatisés et monitorés Documentation technique complète Compétences & Expertise recherchées +5 ans d’expérience confirmée en Kubernetes , Anthos , et environnements Cloud / DevOps . Très bonne maîtrise de Google Anthos . Excellente connaissance de Terraform et Ansible . Bon niveau sur les outils CI/CD ( GitLab CI ). Compétences solides en virtualisation , Linux et scripting . Connaissance des méthodes Agile (Scrum) . Anglais professionnel dans un contexte international.
Mission freelance
Ingénieur Automatique - Intégration capteurs & bancs de tests
Publiée le
Big Data
C/C++
Linux
6 mois
200-310 €
Paris, France
Télétravail partiel
Contexte de la mission Vous rejoindrez l'équipe en charge de l'intégration des capteurs. Cette équipe pluridisciplinaire au sein du département Automatique : prototype et valide l'intégration des capteurs dans les différents produits, en collaboration avec les départements Mécanique et Électronique ; développe des méthodes de calibration innovantes, en collaboration avec l'équipe Bancs de Tests. Nous recherchons un candidat rigoureux, passionné, curieux, créatif, qui aime travailler dans un environnement dynamique et pluridisciplinaire, et qui n’a pas peur de s’attaquer à des challenges techniques nouveaux. Le candidat doit être diplômé d'une école d'ingénieur ou d'un master avec specialisation en Automatique, Mécatronique, Robotique ou similaire. Une experience professionnelle dans le domaine de l'automatique des systèmes embarqués ou dans la validation de capteurs MEMS est un gros plus. Objectifs et livrables Votre mission sera de contribuer au développement et à l'amélioration continue de nos produits en participant à l’ensemble des responsabilités de l’équipe. Vos missions : 1) Conception mécanique et électronique : Participer au design mécanique et électronique. S'assurer du respect des spécifications. 2) Validation du design & traitement des données des capteurs : Réaliser des tests de caractérisation des capteurs et de leur intégration. Prototyper, concevoir et documenter les méthodes de validation et calibration des capteurs. 3) Industrialisation des méthodes de validation et calibration & suivi de production : Développer et maintenir le code de test (C++, Python). Développer de nouveaux outils de tests. Industrialiser les méthodes de validation et calibration des capteurs. Analyser statistiquement les logs de production pour rejeter les valeurs aberrantes et détecter des problèmes de conception ou de production. Ces tâches nécessitent de : Rédiger des specifications techniques liées aux fonctions développées Réaliser un reporting régulier : documentation de résultats et méthodes, présentations au reste de l'équipe Respecter le planning projet Compétences demandées Compétences Python : Avancé Tests sur banc d'essai : Confirmé Big Data : Élémentaire Capteurs MEMS : Confirmé C++ : Avancé Automatique : Confirmé LINUX : Élémentaire Traitement du signal : Confirmé MATLAB : Confirmé Langues Anglais : Courant
Offre d'emploi
Développeur Data/Data Engineer
Publiée le
AWS Cloud
Azure
Azure Data Factory
1 an
40k-45k €
400-550 €
Gosselies, Hainaut, Belgique
Télétravail partiel
ATTENTION, 2 JOURS DE PRESENCE SUR SITE A GOSSELIE NON NEGOCIABLE. Ne pas postuler le cas échéant. Le consultant rejoindra l’équipe Factory Data , spécialisée dans les technologies Microsoft Fabric et Azure Data . La mission s’inscrit dans le cadre de la mise en place et l’optimisation des flux de données, la modélisation du Lake House et l’architecture médaillon (Silver & Gold). Responsabilités Développer les flux d’ingestion via Fabric Data Factory (et compréhension d’Azure Data Factory). Développer les flux de transformation via Fabric Factory Notebook . Optimiser les requêtes de transformation en tenant compte des coûts Azure. Contribuer à la modélisation du Lake House et à l’architecture médaillon. Établir le design technique et rédiger la documentation. Mettre en place et exécuter les tests unitaires automatisables . Participer à l’estimation des efforts de développement. Contribuer à la maintenance et résolution des incidents en production. Participer à l’amélioration continue (guidelines de développement).
Offre d'emploi
Data Scientist
Publiée le
Azure
Data science
Paris, France
Télétravail partiel
Vous êtes passionné·e par la donnée, l’intelligence artificielle et l’impact business ? Rejoignez une équipe innovante qui met la data au cœur des décisions stratégiques et participez à la conception de modèles prédictifs et de solutions à fort impact pour des projets internationaux. 🚀 Vos missions En tant que Data Scientist , vous serez au cœur de la transformation data. Vos principales responsabilités : Concevoir, développer et industrialiser des modèles de machine learning et d’ IA répondant à des problématiques concrètes (prévision de la demande, optimisation marketing, performance industrielle, etc.) Collaborer avec les équipes Data Engineering et les métiers pour traduire les besoins business en solutions data performantes Analyser, structurer et valoriser de grands volumes de données issues de sources multiples Garantir la qualité, la robustesse et l’interprétabilité des modèles déployés Participer activement à la diffusion d’une culture data-driven au sein de l’entreprise
Mission freelance
Marketing consultant (H/F) - 75
Publiée le
Automatisation
CRM
IA
6 mois
75017, Paris, Île-de-France
Télétravail partiel
Un de nos clients dans le cloud recherche un Consultant Marketing en freelance : Poste basé à Paris – Votre mission : En tant que relais des équipes Sales & Marketing (globales et locales), vous serez chargé d’évaluer, déployer et favoriser l’adoption des technologies marketing, des processus et des workflows qui soutiennent la stratégie go-to-market en pleine évolution. Votre objectif : Maximiser l’impact business grâce à : une organisation plus performante, des processus et workflows de lancement produit renforcés, une expérience digitale client optimisée. Nos indicateurs clés : génération de leads, efficacité des équipes, optimisation du stack technologique & des workflows, et développement de solutions internes innovantes. Votre équipe : Vous rejoignez l’équipe Global Marketing Operations, rattachée au département du Chief Revenue Officer. Un poste transversal au croisement du marketing, des ventes, de l’IT et des équipes techniques.
Offre d'emploi
Data Engineer Teradata / Big Data, spécialiste du RUN
Publiée le
Apache Hive
Apache Spark
Big Data
12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
La tribu DATA (DAT) construit et développe des applications sur la base de puissantes plateformes DATA à des fins d’usages variés servant toutes les directions métier du groupe bancaire. Pour répondre à ces usages, DAT est au cœur de la stratégie data-centric du groupe bancaire, et intervient aussi bien au niveau de l’architecture Data, sur les dernières technologies data, Big Data, IA, Teradata, SAS, DMP, Oracle ainsi que sur les solutions analytiques et de datavisualisation. La mission consiste à assurer les fonctions suivantes au sein de la Squad Socles Data de la tribu DAT : Veiller au quotidien à la bonne marche des plateformes Data (Teradata et Big Data) Intervenir au quotidien, sous contraintes de délais, lors des incidents d’exploitation (analyse, diagnostic, résolution). Produire le relevé matinal des exécutions des traitements sur les plateformes « Entrepôt et Usages » et « Big Data ». Analyser les actions correctrices à lancer : – court terme (relance rapide) – moyen terme (consignes pour les pilotes de nuit) – long terme (correctifs d’ordonnancement ou de traitements) Créer les incidents selon le process interne (JIRA). Assurer une communication unique pour les deux environnements DATA Vulgariser la communication technico-fonctionnelle auprès des intervenants (équipes internes et métiers). Mettre en place et diffuser les indicateurs de performance et de délais. Mettre en place des états mensuels des incidents et contribuer aux reportings et comités. Analyser les indicateurs d’assurance qualité de données et communiquer auprès des acteurs concernés. Intégrer des méthodes d’amélioration continue Proposer des améliorations du chemin critique en tenant compte des applications sensibles. Maintenir en condition opérationnelle les moyens, dans le respect des normes et critères de performance. Développer des composants d’amélioration. Définir et mettre en place des outils de normalisation, d’automatisation et de sécurisation de la production. Contribuer à la conception de nouveaux projets et évolutions. Contribuer aux états réguliers de contrôle : habilitations, comptes, connexions… Participer aux projets d’optimisation et d’amélioration de la QDF (Qualité de Fonctionnement)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Astuce pour trouver un client final
- Déclaration d'impots et boni de liquidation au PFU
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Marché global Business Analyst / MOA / AMOA
- Logiciel facturation gratuit + experience demande acompte
4080 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois