L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 151 résultats.
Mission freelance
Développeur Fullstack Java/Kotlin/Flutter (F/H)
ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
Flutter
Kotlin
12 mois
400-550 €
Saint-Denis, Île-de-France
Contexte Nous recherchons un(e) développeur(se) Fullstack motivé(e) par des enjeux techniques variés et à fort impact. Une bonne maîtrise de la stack AWS est attendue afin de participer activement à la conception, au développement et à l’exploitation des services. Description Dans un contexte d'équipe agile (et d'applications à fort trafic), le développeur Full stack conçoit, développe, déploie et maintient les fonctionnalités front user afin de répondre aux exigences fonctionnelles exprimées dans le cadre de la conception de solutions ou d'applications. Le développeur Full stack est capable d'intervenir sur la partie "front" et sur la partie "back" des applications, mais aussi sur la partie CI/CD. Il maîtrise les langages de développement de front et de back, ainsi que les framework les plus utilisés et les bonnes pratiques de développement de ces deux parties. Livrables Revues de code. • Réalisation et rédaction d'études de conception technique. • Analyse d'anomalies & support aux problèmes d'exploitation; Capacité à investiguer la source d'un bug. • Contribution aux respects de critères d'acceptance d'une release. • Participation aux cérémonies agiles : daily meeting, estimation des tâches, rétrospective d'équipe. Participation à la qualité, la résilience, et la sécurité de l'application
Mission freelance
Data Engineer
CAT-AMANIA
Publiée le
Data analysis
Large Language Model (LLM)
OCR (Optical Character Recognition)
3 ans
Lyon, Auvergne-Rhône-Alpes
La l'équipe RAD-LAD (Reconnaissance Automatique de Documents et Lecture Automatique de Documents) a pour objectif de savoir reconnaître le maximum de documents clients possible et d'en extraire le maximum de données possibles pour aider le conseiller au quotidien. L'équipe souhaite élargir son panel de documents reconnus et moderniser les technologies utilisées (LLM notamment). * Tester différents LLM peu importe le provider (aws, gcp, azure) * Préparer les jeux de données * Définir les conditions de succès et d’échec et paramétrer les outils de benchmark (IA tools par exemple) afin de comparer les résultats attendus * Faire des développements sur les produits de la squaq (Java / Python)
Offre d'emploi
Consultant Lead Data Migration D365 H/F
Le Groupe SYD
Publiée le
12 mois
38k-45k €
400-550 €
Saint-Herblain, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 Consultant Lead Data Migration D365 🏠 Télétravail : Full TT 📝Contrat : CDI Temps plein 👉 Contexte client : Accompagnement d'une migration vers Dynamics 365 dans un contexte multi-pays Tu auras pour missions de : Cadrer la stratégie Concevoir et piloter les migrations Auditer/challenger l'outillage Gérer l'ADF (pipelines, data flows), orchestration, data quality et réconciliations Implémenter une solution robuste Azure Data Factory / Power Automate / DMF jusqu'au cutover et hypercare.
Mission freelance
[SCH] Expert Kubernetes - 1345
ISUPPLIER
Publiée le
10 mois
380-425 €
Lyon, Auvergne-Rhône-Alpes
Renfort d’une équipe en environnement Agile/Scrum pour apporter une expertise Kubernetes et accompagner la montée en compétences. Présentiel 3 jours/semaine à Lyon (profil local obligatoire). Mission : -Intervenir en tant qu’expert Kubernetes (design, exploitation, bonnes pratiques, troubleshooting). -Former et accompagner les équipes (coaching, ateliers, documentation, transfert de compétences). -Contribuer aux sujets DevOps : pipelines CI/CD (GitLab/Jenkins), conteneurisation (Docker), industrialisation. -Travailler en mode Agile Scrum avec les équipes produit/tech. Profil attendu : -5+ ans d’expérience sur Kubernetes (cluster, déploiements, réseau, stockage, sécurité, upgrades). -Capacité à coach/lead : animation d’ateliers, formation, rédaction runbooks, mentoring. -Très à l’aise avec l’écosystème DevOps (Docker, GitLab/Jenkins, CI/CD). -Autonome, force de proposition, habitué aux environnements agiles. -Basé Lyon et ok pour 3 jours sur site.
Offre d'emploi
Expert / Référent Technique – Dataiku & Braincube (H/F)
HAYS France
Publiée le
AWS Cloud
Dataiku
6 mois
40k-45k €
500-650 €
92240, Malakoff, Île-de-France
Dans le cadre de ses activités Data & IA, notre client recherche un(e) Expert / Référent Technique Dataiku & Braincube afin d’assurer le pilotage, l’exploitation et l’évolution de ses plateformes Data à l’échelle du Groupe. Vous interviendrez comme référent technique et architectural sur les plateformes Dataiku et Braincube, en environnement hybride Cloud / On-Premise, avec un rôle clé dans la gouvernance, la performance opérationnelle, la sécurité et l’accompagnement des équipes. Vous serez responsable du bon fonctionnement du service, de sa résilience, de son alignement avec les standards de cybersécurité SAFRAN et de la construction de la roadmap d’évolution, en coordination avec les équipes internes, les prestataires et les équipes basées en Inde.
Mission freelance
Ingénieur DevOps AWS
KatchMe Consulting
Publiée le
AWS Cloud
DevOps
1 an
400-500 €
Paris, France
Descriptif du poste L'objet de la mission est de monitorer une infrastructure et les services déployés dans un environnement à forte contraintes réglementaires et sécuritaires. Le ou la consultant(e) devra entre autres : Concevoir, maintenir, automatiser et déployer l'infrastructure en IaC (Infrastructure as Code) avec un haut niveau de disponibilité, dans un environnement fintech. Mettre en place et déployer des systèmes de supervision et d'alerting sur l'ensemble de l'infrastructure. Fournir aux développeurs les outils nécessaires pour déployer leurs nouvelles applications et processus en adoptant une approche DevOps dans des environnements AWS. Construire, tester et maintenir des workflows de CI/CD avec GitHub. Accompagner l'intégration de services tiers. Piloter les efforts de mise en conformité sécurité, en définissant, appliquant et contrôlant les processus et standards à l'échelle de l'organisation. Maintenir, analyser et proposer des améliorations sur l'infrastructure, les outils et les processus existants, puis les mettre en œuvre. Contribuer à la documentation projet, notamment sur les solutions SRE. Définir et planifier la gestion des incidents ainsi que les procédures de réponse associées. Expérimenter de nouvelles technologies, les adapter et les tester en fonction des besoins. Appliquer les meilleures pratiques de sécurité sur l'ensemble de l'infrastructure. Environnement technique AWS, ECS Fargate, Lambda, CloudWatch, Open Telemetry, GitLab CI/CD, PostgreSQL, Redshift, Node.js Profil recherché Le candidat de la mission doit justifier des expériences et compétences suivantes : 5+ années d'expérience professionnelle en ingénierie logicielle sur des applications orientées utilisateurs finaux. 2+ années d'expérience avec un framework frontend moderne (React, Angular, Vue.js…). 1+ années d'expérience en développement mobile en React Native. Bonne maîtrise de la gestion d'état dans les applications mobiles modernes. À l'aise avec les APIs (particulièrement les APIs fintech telles que Open Banking, Stripe…). Solide compréhension de l'architecture d'app mobile et des design patterns associés. Profil proactif, orienté équipe, doté d'un excellent relationnel et de vraies capacités de communication. Excellente communication en français écrite et orale.
Offre d'emploi
EXPERT Snowflake
EMMA-IT
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Snowflake
1 an
Île-de-France, France
Bonjour, Nous recherchons un Lead Data Platform EXPERT Snowflake, pour intervenir chez l’un de nos clients « grand compte » DESCRIPTIF DE LA MISSION ; •Accompagner les équipes métiers dans leurs travaux d’identification et expression de leurs besoins en données et d'indicateurs décisionnels, •Capacité à concevoir des solutions innovantes et fiables nécessitant l’utilisation de technologies dites "Modern DataOps" et IA agentique pour répondre aux nouveaux cas d’usages métiers exprimés et à gérer les projets Data de bout en bout, •Piloter l'équipe de Data Engineers pour assurer la mise en oeuvre •Développer, tester, optimiser et gouverner les flux de traitement et d’ingestion de données au sein de notre Data Platform, •Avoir la capacité de créer rapidement de nouveaux Datamarts de zéro s'appuyant sur notre socle de données existant pour des usages spécifiques, •Contribuer à la mise à disposition et au partage de la donnée au travers d’outils et de processus d'export simples, rapides à mettre en œuvre et monitorables, •Déployer et optimiser au quotidien des pipelines de données (On Premise ou dans le Cloud), •Assurer la stabilité et la gouvernance technique de la plateforme Data, des applications déployées et de certaines de nos plateformes SaaS de données attenantes. Environnement technique utilisé: Snowflake, dbt Core, Linux, Cloud AWS (AWS EC2, AWS S3, AWS Serverless), Cloud CGP (Big Query, GA4), SQL, Python, Airflow, Docker, Terraform, Git, Gitlab & Gitlab CI VOUS JUSTIFIEZ DE ; · Vous êtes titulaire d’un Bac +5 en informatique, avec au minimum 7 ans d'expérience professionnelle · Vous avez de 3 à 5 ans d'expérience sur la plateforme SaaS Snowflake · Vous êtes à l'aise avec le Cloud public AWS et GCP, ses principaux services et ses méthodes de déploiements · Vous possédez des compétences avancées autour des langages et technologies suivants : SQL, Python, Airflow, Prefect, Linux, Docker, Snowflake Cortex et Snowflake Intelligence · Vous connaissez au moins un framework de développement de Web Services REST (Django, Flask, FastAPI pour Python ou éventuellement Express pour NodeJS) et l'outil Postman n'a pas de secrets pour vous · Vous connaissez bien les outils de visualisation de données (Tableau Cloud ou PowerBI) · Vous avez une bonne maîtrise de l’optimisation des déploiements et des processus d'intégration/déploiements continus (CI/CD) via des technologies du marché (comme Docker, Gitlab CI, Jenkins ou équivalent) · Vous détenez des connaissances autour des processus de gestion de la configuration et d'Infrastructure as Code (Terraform, Pulumi, Cloud Formation ou CDK AWS) et des outils d’orchestration de flux de données (comme Airflow ou Prefect) · Vous êtes à l'aise avec les outils de type agents CLI (Claude Code, Codex CLI ou OpenCode) et leur méthodologie de spécifications associée pour développer et déployer des applications autour de la data pilotées en autonomie par l'IA. · Vous connaissez bien les outils Jira et Confluence LES PLUS ; · Toute connaissance du business Retail/Fashion est un plus · Toute connaissance ou compétence sur la mise en place de projets IA agentiques de type RAG ou "Text to SQL" est un plus · Toute connaissance des outils/plateformes BW/4HANA, SAP Analytics Cloud ou PowerBI est un plus · Toute connaissance des outils d'observabilité (comme Sifflet) ou d'agrégation de données de campagnes media (Supermetrics) est un plus · Toute connaissance du déploiement et de l'orchestration de containers avec Kubernetes est un plus Si cette mission correspond à vos attentes et que votre profil correspond à ce besoin, N’hésitez pas à nous adresser votre date de disponibilité, votre CV au format Word et vos prétentions financières par ce biais. Dans l’attente d’un futur échange et d’une future collaboration, L’équipe EMMA-IT.
Mission freelance
Architecte Solutions/ Teach Lead Snowflake/Snowpark (Bancaire)
Nicholson SAS
Publiée le
Apache Spark
Azure
CI/CD
6 mois
460 €
Fontenay-sous-Bois, Île-de-France
Cette mission d’envergure au sein du pilier RPBI de mon client bancaire dans le Val de Marne vise à transformer l'architecture data du groupe. En tant qu’ Architecte Solutions / Tech Lead , vous piloterez la migration stratégique de l'écosystème Hadoop vers Snowflake/Snowpark . Le rôle combine vision architecturale et leadership technique au sein d’un environnement Agile. Vos responsabilités incluent la définition des standards de développement, l'optimisation des pipelines de données via Snowpark/Scala et l'encadrement des Feature Teams. Dans un contexte Cloud Azure , vous garantirez la robustesse des solutions en appliquant les principes de Clean Code et de CI/CD. Points clés : Expertise : Snowflake, Snowpark, Scala et migration Hadoop (Cloudera). Profil : +7 ans d'expérience, capacité de vulgarisation et leadership. Durée : Longue visibilité (jusqu’en sept. 2028). Rythme : Hybride (2 jours sur site). C'est une opportunité rare de structurer la gouvernance data d'une grande banque internationale.
Offre d'emploi
Analyste Data
CAT-AMANIA
Publiée le
Big Data
Microsoft Power BI
PySpark
2 ans
40k-48k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Analyste Data pour intégrer l’équipe Analyse de la Donnée. Rattaché à l’équipe, vous serez en charge de mettre en œuvre des cas d’usage métier via le croisement de données, développer et maintenir des produits DATA réutilisables, et restituer vos analyses à travers des dashboards et dataviz. Vous accompagnerez également les équipes métiers dans l’acculturation DATA tout en respectant les normes et bonnes pratiques de l’équipe. Maîtrise de Python, PySpark, SQL , expérience sur Big Data Hadoop (Cloudera) et compétences en Power BI sont requises, ainsi qu’une solide expertise en data science et analyse de données.
Mission freelance
Data Scientist Senior
NEOLYNK
Publiée le
Python
SQL
3 mois
400-500 €
Lille, Hauts-de-France
Responsabilités principales Concevoir et déployer des features IA Construire des pipelines de traitement de données Industrialiser et monitorer les applications / services (latence, coût, taux de réponse, satisfaction utilisateur). Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Machine learning / Deep learning Traitement de données non structurées: PDF/Images Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques.
Offre d'emploi
Business Data Analyst Pré‑Trade Énergie & Commodities
WHIZE
Publiée le
Big Data
Finance
3 ans
Paris, France
Le Business Analyst Pré‑Trade intervient au cœur des activités Front‑to‑Middle sur les marchés de l’énergie (électricité, gaz, pétrole, émissions, garanties d’origine). Il accompagne les desks trading dans l’analyse, la structuration et l’évolution des processus pré‑trade, ainsi que dans la gestion et la qualité des données de marché. Ses missions couvrent l’analyse fonctionnelle, la compréhension des produits énergie, la modélisation des données, et l’amélioration continue des systèmes ETRM/CTRM. Le rôle est orienté trading, opérationnel et data , sans dimension Risk. Missions principales Analyser les besoins des desks Power, Gas, Oil, Emissions et Renewables. Étudier les mécanismes des marchés spot, intraday, day‑ahead, balancing et dérivés énergie. Documenter et optimiser les workflows pré‑trade : saisie d’ordres, enrichissement, contrôles, validation. Analyser les contract features des produits énergie : profils horaires, règles de livraison, indexations, contraintes physiques. Structurer et fiabiliser les market data énergie : prix spot/forward, courbes, données fondamentales, données issues des plateformes (EPEX, ICE, NordPool…). Comprendre et documenter le fonctionnement de l’ order book : profondeur, liquidité, matching. Réaliser des analyses data (SQL, Python) et produire des dashboards pour les équipes trading. Rédiger des spécifications fonctionnelles (user stories, règles métier, mapping de données). Participer aux phases de tests (UAT, non‑régression) et accompagner les utilisateurs lors des déploiements.
Mission freelance
Chef de Projet Marketing éditorial / d’Influence
Cherry Pick
Publiée le
Branding
Market data
Marketing
12 mois
300-380 €
Île-de-France, France
Responsabilités clés Définir la feuille de route Influence et Opérations Spéciales alignée avec les objectifs éditoriaux. Imaginer et concevoir des dispositifs d’influence et des opérations spéciales innovants à fort impact. Négocier, cadrer et piloter les collaborations avec partenaires et créateurs. Mettre en place et suivre les campagnes d’influence et opérations spéciales. Analyser les résultats, formuler des recommandations et produire des bilans numériques. Assurer une veille active sur les tendances social media, plateformes et créateurs. Maintenir à jour le planning prévisionnel des temps forts et programmes phares. Contribuer à l’amélioration du suivi des performances en collaboration avec la data. Compétences et expertises requises Expérience confirmée (4-5 ans minimum) en marketing d’influence, social media, brand content. Connaissance approfondie des médias, plateformes digitales, VOD et enjeux éditoriaux. Excellentes qualités rédactionnelles, orthographe et grammaire irréprochables. Capacité à travailler de manière transversale et en équipe. Esprit analytique et de synthèse, gestion de projet structurée et rigoureuse. Maîtrise des outils collaboratifs : Trello, Slack, Teams, Klaxoon. Connaissance d’outils d’analytics (AT Internet / Piano Analytics) appréciée.
Mission freelance
Ingénieur d' exploitation Kubernetes (H/F) - 91
Mindquest
Publiée le
Ansible
Docker
Grafana
3 mois
Essonne, France
Au sein de l’équipe infrastructure, vous serez amené à : - Administrer et maintenir les clusters Kubernetes (environnements Dev / Qualif / Prod) - Déployer et gérer les applications sur les clusters - Participer au maintien en conditions opérationnelles des plateformes - Gérer les incidents et demandes d’exploitation - Mettre en place et améliorer le monitoring des infrastructures et applications - Réaliser le capacity planning des plateformes - Automatiser les opérations d’exploitation via Ansible - Réaliser les mises à jour et évolutions des plateformes - Maintenir la documentation technique - Contribuer à la montée en compétences de l’équipe Environnement technique: Containerisation: - Kubernetes (~50 clusters) - Docker Outils & Observabilité: - Rancher - Grafana - Velero - Longhorn Infrastructure: - VMware ESX (~20 hôtes) - Load Balancers - Environ 200 VM Systèmes: - Linux : Red Hat, Ubuntu - Windows Automatisation: - Ansible
Offre d'emploi
ALTERNANCE - Assistant Data Gouvernance (H/F)
█ █ █ █ █ █ █
Publiée le
Data management
Microsoft Excel
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Tech Lead Azure (h/f)
emagine Consulting SARL
Publiée le
1 mois
111 €
75017, Paris, Île-de-France
Nous recherchons un Tech Lead Azure pour accompagner nos clients dans leurs projets Cloud. Introduction et Résumé: En tant que Tech Lead Azure , vous serez responsable de l’encadrement d’une équipe dédiée à l’onboarding et au support Cloud. Vous jouerez un rôle clé en étant le point de référence pour Azure, en définissant les bonnes pratiques et en optimisant les coûts Cloud. Une expertise solide en matière de conteneurisation et en architecture Cloud est essentielle pour ce poste. Responsabilités Principales : Encadrer et animer une équipe en charge de l’onboarding et du support Cloud. Être référent Azure avec les parties prenantes internes et les partenaires stratégiques (Microsoft). Définir et déployer les bonnes pratiques Cloud Azure (architecture, sécurité, opérations, intégration). Piloter et contribuer aux projets d’onboarding Cloud (IaaS Managed Public IaaS – MPI). Participer à l’optimisation des coûts Cloud (FinOps). Participer à la performance et à la conformité de la plateforme Azure. Produire des reportings et indicateurs de consommation Cloud. Animer la communauté Cloud. Exigences Clés : Expérience significative sur Azure. Niveau d'anglais courant. Compétences en architecture et DevOps. Expertise en conteneurisation (Kubernetes, OpenShift, Docker). Notions solides en services Cloud et delivery industriel. Détails Complémentaires : Localisation : Paris. Rythme : 3 jours par semaine entélétravail
Mission freelance
Data Engineer
Codezys
Publiée le
Intelligence artificielle
Python
Snowflake
12 mois
Bordeaux, Nouvelle-Aquitaine
Dans le cadre de notre démarche d'innovation et de renforcement de notre expertise en gestion de données, nous lançons un appel d'offres pour le recrutement d'un(e) Data Engineer intégré(e) à notre Direction des Systèmes d'Information (DSI). Le(a) candidat(e) retenu(e) aura pour mission principale d'apporter son expertise technique sur des sujets récents liés à l'intelligence artificielle (IA) appliquée à la data, en s'appuyant sur une compréhension approfondie des enjeux métiers et techniques. Responsabilités principales : Alimentation de données : Effectuer l'ingestion, la transformation et la mise à jour des flux de données provenant de différentes sources afin d’assurer leur disponibilité et leur cohérence. Collaboration avec un Data Analyst : Travailler en binôme sur des projets liés à l’IA et à la data, en apportant votre expertise technique pour la réalisation d’analyses et la mise en place de solutions innovantes. Développement d’outils IA : Participer à la conception et au déploiement d’agents IA capables de réaliser du requêtage SQL en langage naturel, facilitant ainsi l’accès et l’interprétation des données par les utilisateurs métier. Outils et monitoring : Mettre à disposition des outils d’aide au développement, au monitoring et à la maintenance des plateformes data, afin d’assurer leur fiabilité et leur performance. Veille technologique : Effectuer une veille continue sur les architectures data, en termes de nouvelles tendances, d’outils émergents et de bonnes pratiques, pour faire évoluer nos solutions et répondre efficacement aux besoins métiers. La personne recrutée devra faire preuve de rigueur, d’autonomie et d’un esprit d’innovation, tout en étant à l’écoute des besoins des utilisateurs finaux. La maîtrise des technologies liées à l’IA, aux plateformes data et à la requête en langage naturel sera un réel atout pour la réussite de ce projet. Nous invitons donc les candidats ou organismes intéressés à soumettre leur proposition, en précisant leur approche technique, leur expérience et leur capacité à répondre à ces enjeux stratégiques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5151 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois