L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 873 résultats.
Offre d'emploi
Data Engineer(H/F)
QODEXIA
Publiée le
Apache Spark
Azure
Databricks
10 jours
France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Dans le cadre du développement de son usine digitale orientée Data , notre client recherche 6 Data Engineers expérimentés afin d’accélérer la mise en œuvre de cas d’usage sur la plateforme Databricks. 📍 Localisation : France / Remote 📅 Démarrage : ASAP
Offre d'emploi
Data scientist Senior
VISIAN
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
Python
1 an
Paris, France
Contexte Dans le cadre des projets IT Innovation, vous intégrerez l'équipe AI Factory/Innovation en tant que Data Scientist Senior avec une double mission stratégique : veille technologique et développement de modèles IA. Vous serez le référent technique sur les nouvelles approches IA/ML (LLMs, nouvelles architectures, techniques émergentes). Vous évaluerez la faisabilité technique des use cases métiers, benchmarkerez les solutions du marché (vendors, open-source) et réaliserez des quick POCs (2-3 jours) pour valider des hypothèses avant investissement. Vous concevrez et développerez les modèles ML/DL pour les use cases retenus, du choix des algorithmes à l'optimisation finale. Vous réaliserez des prototypes rapides (POC en 2-4 semaines) et accompagnerez un Data Scientist junior dans sa montée en compétences. Expert en vibe coding, vous utilisez les outils d'IA générative (GitHub Copilot, Cursor, Claude, ChatGPT) pour accélérer l'exploration de données, le prototypage de modèles, la génération de code d'analyse et la documentation, tout en gardant un esprit critique sur les résultats. Vous travaillerez en mode agile en proximité avec les équipes métier Products & Innovation, les développeurs IA, les architectes et les autres Data Scientists. La mission se déroule dans un contexte anglophone, la maîtrise de l'anglais est obligatoire.
Mission freelance
Architecte Data Plateforme AWS / Snowflake (H/F)
ALLEGIS GROUP
Publiée le
Agent IA
AWS Cloud
DBT
1 an
Paris, France
Teksystems recherche pour l’un de ses clients grands comptes un Architecte Data AWS / Snowflake (H/F) pour construire, structurer et sécuriser la plateforme data du client basée sur Snowflake et AWS , et accompagner les équipes pour garantir une plateforme performante, scalable et prête à accueillir des fonctionnalités IA . Ce rôle est structurant, durable , et s’inscrit au cœur de la transformation data. Vos missions : 1. Définir et faire évoluer l’architecture de la plateforme Architecture cible Snowflake/AWS Patterns d’ingestion (batch, CDC, near real-time) Modélisation (Data Vault, modèles analytiques) Exposition (BI, APIs, data apps) 2. Industrialiser le delivery data Standards CI/CD (dbt, ingestion, artefacts ML) Automatisation des déploiements Intégration Git / pipelines / qualité Réduction du time-to-market 3. Mettre en place une observabilité complète Suivi fraîcheur, volumétrie, succès/échec des pipelines Tests & qualité de données Performance Snowflake (temps, coûts, consommation) Dashboards RUN, alertes, SLAs 4. Sécuriser la plateforme RBAC, rôles Snowflake, data masking, row-level security RGPD, auditabilité, traçabilité Catalogage, lineage, ownership 5. Accompagner les équipes Support aux devs, pair programming, arbitrages techniques Challenge des choix existants Coordination avec infra / cloud / sécurité 6. Préparer et soutenir le RUN Normes de reprise, diagnostic, alerting Réduction de la dette technique Support N2/N3 Conception orientée exploitabilité
Offre d'emploi
Architecte Data Senior AWS / Databricks (H/F)
SMARTPOINT
Publiée le
Architecture
AWS Cloud
Databricks
1 an
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre de projets data à forte valeur ajoutée, nous recherchons un Architecte Data Senior capable de concevoir, implémenter et optimiser des architectures data modernes sur AWS et Databricks . Vous accompagnerez les équipes techniques et métiers dans la mise en place de plateformes data scalables , l’industrialisation des pipelines de données et le développement de cas d’usage avancés en intelligence artificielle et IA générative . Conception d’architectures data Définir et concevoir des architectures data cloud modernes (Data Lake, Lakehouse, Data Platform). Concevoir des architectures scalables sur AWS et Databricks . Définir les standards techniques et bonnes pratiques data . Réaliser des études d’architecture et cadrages techniques . Développement et industrialisation Concevoir et développer des pipelines de données et pipelines d’ingestion . Mettre en œuvre des architectures de traitement de données performantes. Développer des solutions de traitement et d’analyse de données à grande échelle. Contribuer à l’industrialisation des projets via MLOps et DevOps . IA et innovation Concevoir et mettre en œuvre des cas d’usage IA avancés , notamment en IA Générative . Participer au cadrage de cas d’usage data et IA innovants . Implémenter des solutions utilisant LLM, Transformers, RAG ou fine-tuning . Développer des Proof of Concept (PoC) et accompagner leur industrialisation. Expertise technique et accompagnement Réaliser des revues et audits de code . Accompagner les équipes data et projets dans les choix technologiques. Participer à la résolution d’incidents complexes et au support expert . Contribuer à l’amélioration continue des socles techniques et architectures data .
Offre d'emploi
Cloud Data Engineer AWS H/F
VIVERIS
Publiée le
45k-55k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de projets stratégiques autour de la donnée et de l'intelligence artificielle, un grand groupe industriel renforce ses équipes afin de structurer et valoriser des données issues d'environnements industriels complexes. La mission s'inscrit dans une dynamique de construction et d'optimisation de plateformes data, avec des enjeux forts autour de la qualité, de la volumétrie et de l'exploitation des données pour des cas d'usage avancés (analytics, IA). L'environnement technique repose sur un écosystème cloud AWS, avec des outils modernes de data engineering tels que Databricks et Apache Spark, ainsi qu'une forte culture DevOps. Vous intégrerez une équipe en charge de l'ingestion, du traitement et de l'exposition de données à grande échelle. Responsabilités : - Concevoir et procéder à la maintenance des pipelines de données, de l'ingestion à l'exposition ; - Contribuer à l'optimisation des traitements de données à grande échelle et à la fiabilisation des flux ; - Collaborer avec les équipes data et IA afin de garantir la disponibilité et la qualité des données pour les usages analytiques et machine learning.
Offre d'emploi
Cloud GCP Data & IA Senior
bdevit
Publiée le
CI/CD
GenAI
Google Cloud Platform (GCP)
36 mois
Île-de-France, France
Contexte : Dans le cadre de l’accélération des usages IA générative au sein d’un grand groupe bancaire, une entité dédiée aux infrastructures IT renforce ses équipes Cloud afin de concevoir et industrialiser des plateformes Data, AI et GenAI sur GCP. Le consultant interviendra sur des cas d’usage autour des LLM et du RAG , avec des enjeux de scalabilité, sécurité, gouvernance des données et mise en production dans un environnement bancaire exigeant. Missions Principales : Concevoir et déployer des architectures Data, AI & GenAI sur GCP ; Mettre en œuvre des solutions basées sur des LLM (Vertex AI, modèles open source, APIs) ; Concevoir et industrialiser des pipelines RAG (Retrieval-Augmented Generation) : ingestion, vectorisation, recherche sémantique ; Implémenter des chaînes MLOps / LLMOps (CI/CD, évaluation, monitoring des modèles) ; Automatiser les infrastructures ( Terraform, IaC ) ; Assurer le run : performance, monitoring, optimisation des coûts (FinOps) ; Garantir la sécurité et la gouvernance des données sensibles (IAM, conformité, gestion des accès) ; Accompagner les équipes métiers et data dans l’industrialisation des cas d’usage GenAI.
Mission freelance
Développeur(se) Full Stack Senior Java / VueJS – Data & Robotique
Syneam
Publiée le
Java
Springboot
Vue.js
6 mois
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre du développement d'une plateforme web orientée data, nous recherchons un(e) consultant(e) senior pour contribuer à rendre des données terrain accessibles et exploitables. La mission consiste à restituer des données opérationnelles liées à l'activité de robots déployés sur plusieurs sites, à destination d'utilisateurs ayant besoin d'une information rapide et fiable. Environnement produit, agile, avec de fortes interactions métier. Descriptif de la mission Concevoir et développer des fonctionnalités web de restitution de données opérationnelles à forte valeur d'usage Intervenir en full stack : back Java / Spring Boot, front VueJS Participer aux choix techniques et à l'amélioration continue de la plateforme Collaborer au sein d'une squad (PO, Tech Lead, développeurs back/front, UI/UX) Travailler en proximité avec les équipes data pour fiabiliser l'exploitation des données Comprendre les besoins utilisateurs, challenger les demandes et contribuer à une démarche produit itérative
Mission freelance
Développeur DevSecOps / Python (H/F) - 93
Mindquest
Publiée le
DevSecOps
Python
3 mois
290-400 €
Saint-Denis, Île-de-France
Contexte : Notre client recherche un Développeur DevSecOps et Python confirmé. L’intervenant travaillera sous la supervision du Tech Lead transverse et devra monter en compétences pour en devenir le backup opérationnel. Mission Les missions couvrent deux périmètres : DevSecOps : mise en place de pipelines CI/CD, conteneurisation, identification et résolution de failles de sécurité, monitoring des performances, automatisation des tâches de développement, test et déploiement. Python / Data : élaboration de reportings métiers, parsing de données, alimentation du Datastore DOAAT, réalisation d’IHM métier, MCO des utilitaires Python existants, support Tableau / Power BI, aide à la mise en place d’un modèle de prévision thermique.
Mission freelance
Data Engineer Niort Buisness Object,Optimisation SQL, TABLEAU,DATAIKU
WorldWide People
Publiée le
Business Object
12 mois
400-460 €
Niort, Nouvelle-Aquitaine
Data Engineer Niort Buisness Object,Optimisation SQL, TABLEAU,DATAIKU La mission consiste à contribuer à la structuration, l’industrialisation et la valorisation de la donnée au sein d’une équipe dédiée, afin de soutenir une transformation data ambitieuse et d’améliorer de manière continue la fiabilité et la performance des traitements. Elle vise à concevoir, organiser et optimiser les flux de données, en garantissant que chaque chaîne d’alimentation et chaque modèle produit s’inscrivent dans une démarche cohérente, durable et alignée avec les besoins métiers. Le rôle repose sur la capacité à bâtir des pipelines robustes et industrialisés, à modéliser des structures de données adaptées, et à assurer une qualité irréprochable sur l’ensemble du cycle de vie de la donnée. Une attention particulière est portée à la standardisation des pratiques, à la réduction de la dette technique et à la bonne intégration des données dans les outils d’analyse et de visualisation. La mission implique également de challenger les solutions existantes, d’identifier des axes d’optimisation et de proposer des architectures ou processus plus performants, notamment en matière d’automatisation et de gouvernance. Elle s’inscrit dans un objectif global d’amélioration continue : sécuriser les traitements, fiabiliser les décisions métier, fluidifier les interactions entre les équipes impliquées et transformer les contraintes opérationnelles en leviers de performance durable.
Offre d'emploi
Chef de projet / Développement AS400 RPG SQL F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
PHP
SQL
Puteaux, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Ingenieur Data RH
Comet
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-620 €
Île-de-France, France
Compétences techniques : Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Offre d'emploi
Manager BI
R&S TELECOM
Publiée le
Oracle
SQL
12 mois
Paris, France
Contexte de la mission : Entrepôt de données sous Oracle (une machine Oracle EXACC), · Oracle Data integrator 12c pour l'extraction, transformation et chargement des données, · OBIEE 12C et oracle BI Publisher pour la partie reporting, · Le serveur applicatif est sous Oracle Linux. Tâches à réaliser : Management de l'équipe ( BUILD + RUN), · Analyse des nouveaux sujets (charges, complexités, optimisation des affectations de tâches), · Gestion des priorités, · Apport d’expertise technique sur Opéra/Oracle – architecture technique, · Force de proposition sur les organisations. Compétences recherchées : Obligatoires : Maitrise de l'outil de reporting OBIEE (Oracle Business Intelligence Entreprise Edition), Maitrise de oracle BI Publisher, Maitrise du SQL.
Mission freelance
101528/Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES
WorldWide People
Publiée le
Semarchy
12 mois
360-390 €
Nantes, Pays de la Loire
Data Engineer Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell NANTES 04/05/2026 1 an Nantes ( 2 jours de télétravail) Semarchy xDI, SQL, GitLab CI CD, DataStage, Ansible, Python, Shell Build: conception et développement de nouvelles solutions socle data Run: MCO et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Développer des traitements ELT xDI Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Nous recherchons un data engineer confirmé. La maitrise de Semarchy xDi, SQL et GitLab CICD est nécessaire.
Offre d'emploi
Senior Data Scientist
Gentis Recruitment SAS
Publiée le
Machine Learning
MLOps
Python
6 mois
53k-91k €
530-1k €
Luxembourg
Nous recherchons un(e) Senior Data Scientist pour concevoir, développer et déployer des modèles de data science à fort impact métier (segmentation, churn, fraude, marketing, prévision, optimisation). Vous interviendrez sur l’ensemble du cycle de vie des projets : exploration des données, feature engineering, modélisation, évaluation, mise en production et monitoring. Vous serez également responsable de la performance et de la robustesse des modèles dans le temps (dérive, recalibrage), tout en garantissant leur explicabilité et leur conformité. En collaboration avec les équipes Data Engineering, IT et métiers , vous contribuerez à l’industrialisation des solutions et à leur adoption. Vous participerez également à la diffusion des bonnes pratiques et jouerez un rôle de référent technique auprès de profils plus juniors.
Offre d'emploi
Consultant(e) Data – Expertise Dataiku (F/H)
Argain Consulting Innovation
Publiée le
Dataiku
120 jours
38k-48k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) Consultant(e) Data – Expertise Dataiku (F/H) Vous interviendrez : Chez les clients, selon le cadre et les objectifs définis afin de : Travailler à la fois comme Développeur Data, Business Analyst Data , et référent Dataiku, en jonglant efficacement entre plusieurs projets. Synthétiser les échanges (ateliers, COPRO) afin de partager les sujets clés, proposer des solutions adaptées, chiffrer les besoins et planifier les actions. Assurer le suivi des tâches, sprints et collaborations via JIRA. Concevoir, développer et maintenir des pipelines data end‑to‑end dans Dataiku , notamment avec des traitements en SQL et la connaissance de GCP Contribuer à l’amélioration continue des modèles de traitement, de la qualité des données et des processus métiers. Analyser les besoins des équipes métier, challenger les hypothèses et traduire les cas d’usage en solutions data robustes. Participer à l’animation des ateliers, COPIL/COPRO, et accompagner les équipes dans la bonne exploitation des outils data. Collaborer avec les équipes Data, IT, métiers et prestataires externes pour garantir l’avancement des projets. Assurer une documentation claire et la traçabilité des traitements Data. Au sein du cabinet : Contribuer au développement du cabinet (développement commercial, optimisation des processus internes, formation et mentorat), Participer à des projets internes relatifs à nos activités évènements, QVT, RSE, Mener et réaliser des projets associatifs (mécénat auprès de nos associations partenaires)
Offre d'emploi
Incident Manager / Application Production Support h/f
Ela Technology
Publiée le
Microsoft SQL Server
VBA
6 mois
Seine-Saint-Denis, France
Nous recherchons un Incident Manager / Application Production Support (APS) pour assurer le support fonctionnel d’une application eCommerce Equity Derivatives , utilisée à l’échelle internationale. Le poste s’inscrit dans un environnement Front‑Office , avec une activité orientée run applicatif, gestion d’incidents critiques et disponibilité des systèmes . Missions Incident & Problem Management Support N1/N2 pour les utilisateurs internes et N2 pour les utilisateurs externes Prise en charge de bout en bout des incidents P1/P2 Mise en œuvre de workarounds pour réduire l’impact business Diagnostic des incidents et analyse de la cause racine Communication avec les utilisateurs internes et le management Suivi et documentation des incidents jusqu’à leur résolution Lancement et coordination de task forces lors d’incidents critiques Collaboration avec les équipes support amont et aval Supervision applicative – Application Champion Responsabilité de l’objectif de disponibilité 99,9 % Supervision quotidienne de l’état applicatif et des flux Handover avec les équipes follow‑the‑sun Mise en place d’une supervision proactive Suivi des performances applicatives Mise à jour des KPIs de production Documentation & Knowledge Management Documentation des procédures de support sur wiki Gestion de la base de connaissance applicative Assistance aux utilisateurs dans l’usage de l’application Formation des équipes de support, notamment lors des nouvelles releases Rédaction et communication des handovers quotidiens Amélioration continue & releases Contribution à la gestion de capacité Amélioration de la qualité et de l’exploitabilité des logs Réduction des interventions manuelles Participation aux cycles de release, tests fonctionnels et contrôles post‑production Communication des Release Notes Participation aux exercices DRP / BCP Coordination avec les équipes de développement sur les correctifs et évolutions
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3873 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois