L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 104 résultats.
Offre d'emploi
Consultant Data Databricks (F/H)
Publiée le
Apache Spark
Databricks
DevOps
3 ans
60k-75k €
550-610 €
Paris, France
Télétravail partiel
🔎 Contexte de la mission Intervention au sein de la Direction des Systèmes d’Information d’un acteur bancaire. Mission réalisée dans une équipe de données transverses opérant en support des directions : Finance Marketing Crédit L’équipe n’intervient pas sur des sujets cybersécurité , mais se concentre sur : Les enjeux réglementaires Le reporting opérationnel et financier La mise à disposition de données à d’autres équipes (dont IA et modernisation Azure) 👥 Organisation Équipe de 10 à 15 personnes (mix France + offshore Inde) 3 internes / plusieurs prestataires externes Encadrement par un IT Lead ⚙️ Environnement technique Cloud & orchestration Azure Azure Databricks Azure DevOps (CI/CD) Data pipeline Python (Airflow, FastAPI) SQL / PostgreSQL Spark DataVault (modélisation) DBT (prochainement intégré) Fichiers via couche FTP Visualisation & automatisation Power BI (rationalisation en cours) Power Automate Azure AI / ML (projets IA à venir en 2026) Gouvernance & data Data Store Domain Atlas Autres informations 📍 Localisation : Paris 8ème 🕒 Durée estimée : 3 ans 🗓️ Démarrage souhaité : ASAP selon disponibilité 🗣 Langue de travail : anglais courant (collaboration avec équipes offshore)
Mission freelance
Business Analyst / Confirmé - Senior
Publiée le
Microsoft Excel
MySQL
Python
3 mois
400-650 €
Seine-Saint-Denis, France
Télétravail partiel
Bonjour à tous, Je recherche pour le compte d'un de mes clients un Business Analyst. Voici les missions principales : Réalignement et qualité des données • Cartographier et analyser les données provenant des différentes sociétés du Groupe. • Identifier les écarts, incohérences et redondances. • Réaliser les opérations de nettoyage, harmonisation et migration (via Excel, Python, SQL si nécessaire). • Développer et maintenir des scripts d’automatisation (Python, Pandas, Regex, API). • Expérimenter l’usage de modèles IA (GPT, ML) pour accélérer l’enrichissement, le matching et la classification de données. RUN BI & Reporting • Assurer la disponibilité et la fiabilité des modèles/reports Power BI de publication. • Gérer les incidents et demandes utilisateurs (RUN BI, correctifs, évolutions). • Monitorer les traitements Fabric/Power BI (Data pipelines et Refresh Semantic models) et collaborer avec l’IT pour résoudre les problèmes. • Documenter et optimiser les process de mise à jour et de refresh des dashboards. Analyse métier & accompagnement • Traduire les besoins métiers en spécifications fonctionnelles et data. • Accompagner les équipes locales dans l’adoption des dashboards et outils analytiques. • Proposer des recommandations pour améliorer la gouvernance et la qualité des données. • Être le point de contact privilégié entre équipes Data, IT, BI et filiales.
Offre d'emploi
DATA SCIENTIST SENIOR – BRUXELLES
Publiée le
Data science
Python
3 ans
Bruxelles, Bruxelles-Capitale, Belgique
Pour une mission longue sur Bruxelles (3 jours site ) , nous recherchons un data scientist expérimenté (minimum 3 ans d’expérience) ayant OBLIGATOIREMENT une expérience dans le secteur bancaire. · Poste en CDI (idéalement pour une relocalisation en Belgique), ouvert aux Freelances, · Anglais obligatoire · Salaire ou tarif à discuter En tant que Data Scientist, vous devez maîtriser différents aspects du Machine Learning. Ce poste offre l’opportunité d’appliquer et de renforcer tes compétences dans plusieurs domaines : • Relever divers défis métiers en créant des applications d’IA (assistant virtuel, etc.) destinées à améliorer l’expérience client, fournir de meilleurs outils aux collaborateurs, et automatiser ou optimiser les processus internes. • Utiliser un large éventail de méthodologies analytiques (IA générative et IA prédictive), incluant les techniques et approches de GenAI : Prompt Engineering, RAG, fine-tuning, speech-to-text, applications agentiques, génération et interprétation d’images, NLP, ainsi que les méthodes statistiques et de machine learning classiques. Bien que vous ne soyez pas expert dans tous ces domaines, vous devez posséder une solide expertise dans les technologies clés et la capacité d’apprendre rapidement de nouvelles approches selon les besoins. • Disposer d’une grande expérience en programmation Python et contribuer au déploiement d’applications d’IA en production en utilisant une pile technologique complète. • Présenter directement les résultats de tes travaux au top management. • Accéder à l’un des volumes de données les plus riches et variés du marché et y appliquer tes compétences. • Évoluer dans un environnement qui valorise l’innovation, les processus agiles et efficaces, la communication directe, et un esprit d’équipe fort. • Travailler au sein d’une équipe agile et collaborative, composée de collègues prêts à partager leurs expériences et à coopérer au quotidien.
Mission freelance
Chef de projet DATA Domaine Banque / Assurance - MER
Publiée le
IA Générative
Pilotage
Python
3 mois
400-480 €
Mer, Centre-Val de Loire
Télétravail partiel
Chef de projet DATA pour une mission à MER (près d'Orléans). Domaine Banque / Assurance. Profil : - Spécialiste de la gestion de projets techniques orientés Data, avec un minimum de 3 années d’expérience - Expérience des méthodologies Agile (Kanban, Scrum) en tant que Product Owner - Grande rigueur dans le suivi des actions projet - Expérience de la relation Infogérant / infogéré - Connaissance des sujets Data Science (ML, développement Python, IA générative) - Connaissance du fonctionnement des bases de données (Relationnelles, Cluster, Stockage S3) - Connaissance des infrastructures Cloud, des outils associés aux projets mentionnés ci-dessus, et de Power BI Description du poste : Le prestataire sera placé directement sous la responsabilité du responsable du service Modélisation des Données. Il interviendra sur les projets suivants : Projet d'extension des données du SI Décisionnel Ce projet agile vise à faciliter l’accès aux données pour les utilisateurs métier et les clients. Le prestataire jouera le rôle de Product Owner pour le produit « Data » : gestion du Backlog, collaboration étroite avec le Scrum Master, l’équipe de développement du service Modélisation des Données, les équipes IT, et les métiers. Projet de nouvelle stratégie d’alimentation du Datawarehouse Finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique. Autres projets Mise en place de solutions IA, finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique, mise en place d’un SI Décisionnel RH, et d'autres projets à initier en 2026. Mission : Piloter les projets sur les aspects suivants : - Organisationnels : planning, comitologie, suivi budgétaire, suivi de recette - Techniques : cartographie réseau, flux, analyse de risque, etc. - Relationnels : collaboration avec les équipes IT (Architectes, Réseau, RSI, etc.), les métiers, le CISO, etc. - Maitrise des risques : implique une grande rigueur dans le suivi des actions, des plannings et des budgets
Offre d'emploi
AI Engineer
Publiée le
AWS Cloud
Docker
FastAPI
1 an
40k-55k €
400-600 €
Île-de-France, France
Télétravail partiel
Vous êtes passionné(e) par l’innovation et les défis techniques ? Vous avez une solide expérience en Machine Learning et en industrialisation de modèles ? Cette opportunité est faite pour vous ! 🔍 Vos missions : ✅ Concevoir, entraîner et déployer des modèles d’IA performants ✅ Optimiser leur intégration dans nos systèmes ✅ Développer des solutions scalables en Python ✅ Assurer la mise en production et le déploiement ✅ Collaborer avec les équipes Data Science et développement En termes de compétences, sont notamment attendus une maîtrise de : Infrastructure cloud Produits Docker Python et des librairies Machine et Deep Learning (Pytorch, TensorFlow, Fastai, ...) FastAPI Grands Modèles de Langage (LLM) Expérience en création d'outils IA
Offre d'emploi
Ingénieur(e) Traitement d'image - Optronique - Marseille - H/F
Publiée le
40k-50k €
Marseille, Provence-Alpes-Côte d'Azur
Contexte du poste Nous sommes un bureau d’études de référence dans le domaine de la vision optronique , basé à Marseille. Depuis plus de vingt ans, notre structure a développé une expertise reconnue dans la conception de solutions de vision sur mesure pour des secteurs variés : défense, aéronautique, sécurité, transports, sport, cinéma, médical, etc. Afin d’accompagner notre croissance et renforcer notre équipe R&D spécialisée en traitement et analyse d’image, nous recherchons un(e) Ingénieur(e) en Traitement d'image . Vous intégrerez une équipe passionnée, à taille humaine, réunissant des profils pluridisciplinaires où innovation, exigence technique et esprit d’initiative sont au cœur de chaque projet. Votre rôle sera central dans la conception d’algorithmes avancés, l’optimisation de pipelines de vision et le développement de solutions embarquées à forte valeur ajoutée. Missions Missions principales Concevoir, développer et optimiser des algorithmes de traitement et d’analyse d’image pour des systèmes de vision innovants. Mettre en œuvre des modèles de machine learning et deep learning (CNN, SVM, descripteurs…) adaptés aux contraintes optroniques. Intégrer, tester et valider des solutions de vision sur des plateformes embarquées ou PC. Assurer la mise au point et l’optimisation de chaînes de traitement vidéo (flot optique, projections 3D, filtrages avancés…). Participer à la conception et au développement d’architectures logicielles performantes en C/C++ et/ou Python. Missions annexes Participer aux revues techniques et apporter un soutien aux équipes projets. Contribuer à la veille scientifique et technologique dans les domaines IA, traitement d’image, GPU computing. Prendre part à l’amélioration continue des méthodes et des outils internes. Proposer et développer des projets personnels à fort potentiel d’innovation.
Offre d'emploi
Cloud Data Engineer
Publiée le
Big Data
Cloud
60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
Offre d'emploi
Data Ops
Publiée le
DevOps
Python
40k-70k €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte - Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. - Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. - Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. - Un outil de Community Management, Sparrow Academy. L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Dans ce contexte, nous faisons appel à une prestation en assistance technique. les missions sont : - Administration/Exploitation/Automatisation système d’exploitation de nos clusters - Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs). - Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture. - Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover. - Rédaction de documents techniques (architecture, gestion des changes et incidents). - Production de livrables de qualité et partage des connaissances à l’équipe. Notre stack technique : - Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP. - Containers: Docker, Kubernetes. Profil recherché : - Compétences avancées sur Kubernetes (Architecture, Administration de Clusters) - Connaissances sur la gestion des secrets (Vault) - Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC). - Bonnes connaissances de GitLab et des processus de CI/CD. - Connaissances de l’approche GitOps ( ArgoCD ) - Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana ) - Connaissances en bases de données relationnelles (PostgreSQL) appréciées. - Anglais correct à l’écrit et à l’oral. - Profil rigoureux. Les sujets traités par l’équipe sont variés : - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité); - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs. Stack Technique de l’équipe : - Langages : Python, Golang, Bash - GNU/Linux - Kubernetes - Observabilité : Prometheus, Thanos, AlertManager, Grafana - Sécurité : Vault - DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni - Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
104 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois