Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 211 résultats.
Freelance
CDI

Offre d'emploi
Développeur front / IA (Lausanne)

JEMS
Publiée le
Javascript
React

3 mois
Lausanne, Vaud, Suisse

Afin de renforcer notre équipe travaillant sur des solutions d’Intelligence Artificielle nous recherchons un/e Front End Engineer dont la mission principale sera de construire des interfaces supportant des cas métiers à base d’intelligence artificielle. Implémenter des fronts sur Azure permettant l’interaction avec des systèmes IA tels des chatbots, des analyses de factures ou encore, des analyses de conversation. · Comprendre les besoins : Collaborer étroitement avec le product manager IA, les Data Scientist et le technical leadpour traduire les exigences en spécifications fonctionnelles et techniques. · Proposer des maquettes et des interfaces : Concevoir des parcours utilisateurs (UX) et des interfaces (UI) pour un usage interne, en garantissant la pertinence et la clarté de l'information. · Développement et intégration : Développer des fronts modernes et s’interfacer avec les back-ends existants. Vous serez également force de proposition pour faire évoluer les APIs selon les besoins. · Qualité et tests : Assurer la performance fonctionnelle et la robustesse des applications via des tests (unitaires, intégration, performance) et le respect des standards de qualité. · Autonomie et collaboration : Travailler en autonomie au sein d'un environnement agile, en assurant une communication transparente.

Freelance
CDI

Offre d'emploi
Business Analyst Data

VISIAN
Publiée le
Agile Scrum
Big Data
ETL (Extract-transform-load)

1 an
Paris, France

Rattaché(e) à la Direction Digital, Data & IS, la Data Factory œuvre pour rendre les données accessibles, les valoriser à travers des produits data métiers à base d’IA et d’Advanced Analytics, et transformer le client en un groupe orientée data (« Data-driven ») où tous les collaborateurs connaissent les enjeux de la data. La création des produits Data s’appuie sur une « plateforme Data» centrale, cloud-native, sécurisée et performante avec les technologies les plus avancées. Le client a établi un partenariat stratégique de cinq années avec Google Cloud, lui donnant accès à des technologies innovantes et des liens privilégiés avec ses experts, et permettant de disposer d’une puissance de calcul augmentée, d’accélérer l’analyse et de développer l’innovation sur de nombreux défis business et technologiques.

Freelance

Mission freelance
Data Engineer Semarchy  xDM / xDI Montpellier

WorldWide People
Publiée le
Semarchy

6 mois
330-350 €
Montpellier, Occitanie

Data Engineer Semarchy xDM / xDI Montpellier Stambia Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.

Freelance

Mission freelance
Machine Learning Engineer Lead Expert

Codezys
Publiée le
Apache Airflow
Cloud
Docker

6 mois
Paris, France

Métier : Data Management, Machine Learning Engineer Spécialités technologiques : Cloud, Deep Learning, Machine Learning, Big Data, Simulation Type de facturation : Assistance Technique (facturation avec un taux journalier) Compétences : Technologies et Outils : GIT, CI/CD, Pytorch, Python (5 ans), Xarray, AWS (5 ans), Docker Soft skills : Bonne pédagogie pour accompagner/coach l’équipe Secteur d'activité : Assurance Description de la prestation : Projet dans le secteur de l’assurance pour un Machine Learning Engineer Lead Expert spécialisé en recherche appliquée sur les événements climatiques extrêmes utilisant des modèles d’IA. Travail sur des simulations météo pour identifier les risques de catastrophes et développer des modèles de Machine Learning avec gestion de big data et code Python. Responsabilités principales : Fournir et gérer du code et des données de qualité pour l’équipe R&D. Refactoriser, structurer et documenter la bibliothèque Python pour les simulations, inférence et analyse. Développer des pipelines robustes pour la simulation, la détection d’événements extrêmes, l’entraînement et l’évaluation des modèles, notamment sur GPU. Appliquer les meilleures pratiques de développement logiciel scientifique : tests, CI/CD, conception modulaire, reproductibilité. Optimiser l’utilisation de serveurs multi-GPU pour des entraînements IA à grande échelle. Former et accompagner l’équipe sur les bonnes pratiques de développement scientifique et l’utilisation des GPU.

Freelance

Mission freelance
Data Engineer Semarchy  xDM / xDI Montpellier

WorldWide People
Publiée le
Semarchy

6 mois
330-350 €
Montpellier, Occitanie

Data Engineer Semarchy xDM / xDI Montpellier Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Concevoir et administrer les modèles MDM sous Semarchy xDM. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDM / xDI, SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.

Freelance
CDI

Offre d'emploi
Data Architect BMC Discovery

VISIAN
Publiée le
Architecture
Kubernetes

1 an
40k-69k €
400-700 €
Montreuil, Île-de-France

constitution de l'inventaire complet du système d'information mappage des applications sur les assets et les services contribution active aux projets d'IA adjacents a ce projet niveau très senior , connaissance de BMC discovery , aisance dans communication, grande experience des infra IT , cloud , kube, storage , ... les missions sont: design d'architectures / mode a travers beaucoups de firewalls. design de pattern de détection déploiement de discovery partout packaging de la solution pour les site distants activation de la deep discovery fourniture des kpi de couverture de la solution.

Freelance

Mission freelance
Responsable Déploiement GitHub & IA

VISIAN
Publiée le
AI
Github

1 an
210-360 €
Île-de-France, France

Contexte Le client souhaite développer l’usage de l’IA dans son delivery IT, notamment via le déploiement de licences GitHub auprès des développeurs, MLE, automaticiens et data engineers. L’objectif est de maximiser les gains de productivité et d’accompagner les équipes au changement en mode « in-squad » ou « on the delivery ». Missions principales Stratégie de déploiement Cartographier les squads DT2 et prioriser leur déploiement. Valider le déploiement avec les managers et tech leads. Identifier les référents GitHub au sein des squads. Lancer le processus de déploiement (request/CGU). Déploiement et accompagnement On-boarder managers, tech leads et experts sur GitHub et ses bénéfices. Formaliser les besoins d’accompagnement selon les populations cibles. Organiser les vagues de déploiement : Kick-off, Enrollment, MEP des guichets référents. Suivre l’adoption via enquêtes hebdomadaires et rendez-vous avec la communauté GitHub. Pilotage Définir et suivre les KPIs liés à l’usage de GitHub Copilot et à la qualité du code. Analyser l’impact sur la fluidité et la productivité du delivery IT. Mesurer les gains par rapport au Business Case défini.

Freelance

Mission freelance
Data Engineer AWS

RED Commerce - The Global SAP Solutions Provider
Publiée le
AWS Cloud
Data Lake
Dataiku

3 mois
Paris, France

Kajenthi@RED Global – Recherche Data Engineer AWS – IDF – Freelance – 3 mois + Dans le cadre du déploiement d’un environnement de Data Augmentée (AWS, Dataiku, Starburst, Datasync), alimenté depuis un Data Lake on-premise , RED Global recherche un Ingénieur Data pour accompagner la mise en production d’un nouveau produit sur AWS . Missions : Résolution des problèmes techniques résiduels sur les environnements. Mise en œuvre de services Data et IA (Bedrock, RAG, etc.). Contribution à un front de génération de comptes-rendus en mode speech-to-speech . Compétences requises : Minimum 3 ans d’expérience sur AWS en environnement Data. Bonne maîtrise des services Data AWS . Connaissance de Starburst et Dataiku appréciée. Environnement technique : AWS, Dataiku, Starburst, Datasync, Bedrock, RAG, Data Lake on-premise. Si vous souhaitez recevoir de plus amples informations sur la mission ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter via mail avec votre CV à jour :

Freelance

Mission freelance
Architecte Cybersécurité Cloud AWS

CAT-AMANIA
Publiée le
AWS Cloud
Cybersécurité

3 mois
400-550 €
Lille, Hauts-de-France

L'équipe Cybersécurité assure la protection et la sécurisation de l’ensemble du groupe : elle pilote la stratégie de gouvernance et les processus de gestion du risque, s’assure de la conformité de nos systèmes d’information, définit les moyens techniques nécessaires à la détection et à la réponse aux incidents, ainsi que les moyens de contrôle associés. Nous cherchons à renforcer notre équipe Security Advice Office d’un Cybersecurity Architect. Nous accompagnons au quotidien les équipes Digital à l’intégration de la cybersécurité dans leurs projets qu’il s’agisse de la sécurisation de la data, de l'IA, de l’infrastructure, des plateformes ou encore des applications. Pour réussir cette mission, l’équipe Advice : fournit des conseils applicables et contextualisés aux équipes Digital; réalise la revue de l’intégration de la cybersécurité dans les architectures existantes; délivre des guidelines permettant de mettre en application les bonnes pratiques Cyber; réalise des études d’exploration sur certains sujets novateurs et différentiateurs pour la Cybersécurité. Objectifs et livrables Le Cybersecurity Architect recherché aura pour mission: d’accompagner les équipes Digital en les aidant à intégrer la Cybersécurité dès les phases de choix de solution et de design; de créer des guidelines de sécurité permettant aux équipes de mettre en application les bonnes pratiques sur leur périmètre; de prendre part à des revues d’architecture cybersécurité des infrastructures, plateformes et applications ; de partager ses connaissances en matière de cybersécurité auprès de son équipe et plus largement, auprès des équipes Digital. Le périmètre technique : Cloud Public (AWS / GCP); Infrastructure As Code; Instances, Containers, Kubernetes, Serverless; API Management; CI/CD, GitOps; Authentication and authorization protocols (SAML, Oauth2.0, OIDC, …); Aiven, Data Platform (Datalake, ETL, …), Data flows management (Kafka, …); Solutions IoT (hardware, application mobile, Cloud Public); Network: interconnection, VPN, PAM, WAF, Proxy and Load Balancing. Le profil recherché : Formation supérieure en informatique et solide expérience en cybersécurité (infrastructure, plateforme, applications); Maîtrise du Cloud Public et d'au moins un langage (Python, Java, JavaScript); Excellente communication (écrite, orale, anglais obligatoire car équipe non francophone), capable d'adapter son discours aux différents interlocuteur rice s (produit, business, tech); Esprit d'équipe, force de proposition, orienté e solution et client e, et rigueur dans la production de livrables documentaires qualitatifs; Passionné e par la tech, il/elle sait innover et a envie d'évoluer dans un contexte international; Il / elle est orienté(e) client, solution (problem solver) et approche par les risques. Des certifications sécurité sont appréciables pour ce poste (AWS, GCP, SANS, Offsec, etc.).

Freelance

Mission freelance
URGENT! Data Engineer – Azure, Kafka, Finance – Remote working (h/f)

emagine Consulting SARL
Publiée le

6 mois
500-650 €
75001, Paris, Île-de-France

Vous êtes un Data Engineer expérimenté avec de solides connaissances d'Azure ? emagine a une opportunité pour vous d'aider à l'intégration de SAP BW et SAP BFC dans une plateforme de données moderne basée sur Azure, permettant l'analyse financière prédictive grâce à l'IA. Are you an experienced Data Engineer with strong Azure? emagine has an opportunity for you to assist in the integration of SAP BW and SAP BFC into a modern Azure-based data platform, enabling predictive financial analytics through AI. Expected Skills: Experience: Over 7 years of experience in Data Engineering including working in an international environment. Essential: Azure Functions, Apache Kafka, Python Strong Plus: SAP BW, SAP BFC, Internal Finance Nice to Have: MS Fabric, AI integration experience Language: English – Fully fluent Key Tasks & Deliverables: Design and implement robust data pipelines between SAP BW, SAP BFC, and Azure. Ensure data integrity, security, and real-time processing capabilities. Enable seamless data consumption by AI models for KPI prediction. Provide documentation and training for long-term support and maintenance. Apply with your latest CV or reach out to Brendan to find out more.

Freelance
CDI

Offre d'emploi
Azure Data Factory Expert

Management Square
Publiée le
Azure Data Factory
Azure Synapse
Data Lake

1 an
58k-64k €
550-620 €
Paris, France

1. CONTEXTE DE LA MISSION Au sein de la Direction Informatique, nous cherchons à renforcer le département Data & Analytics avec un expert Azure Data Factory – spécialisé dans la conception et le développement de projets d'intégration de données hybrides dans le Cloud. L’équipe Data & Analytics gère le DataHub qui centralise les données des différents référentiels et applications Front to Back (PMS, OMS, IBOR, ABOR, CBOR) et alimente l'ensemble des métiers pour des besoins de reporting réglementaires ou clients, des analyses via des outils analytiques type Power BI ou Power Query ou des développements internes via APIs ou requêtes SQL. L’entreprise termine actuellement un projet stratégique de refonte de l'infrastructure Data qui repose désormais sur la technologie Data Lake Azure Cloud et s'engage dans un chantier de migration des outils FtoB vers une plateforme intégrée d'un éditeur de renommée mondiale. 2. DESCRIPTION DE LA MISSION Vous intervenez dans l’équipe Data & Analytics pour poursuivre la transformation de l'entreprise en tant qu' expert Azure Data Factory (Injection, stockage, traitement, analyse) via les différents modules ( ADF, Synapse, Data Lake Gen 2, blob storage, SQL database, Analysis Service ). Une expertise dans l'automatisation des tests et l'usage de l'IA pour l'analyse des données sera un plus. En tant qu'expert, vous serez force de proposition pour challenger l'existant et faire évoluer le Datahub maison pour intégrer les données à partir du Datahub de la solution cible. À cette occasion, vous devrez à la fois répondre aux exigences du métier, qui souhaite limiter l'impact de la migration, et aux contraintes et opportunités apportées par la nouvelle solution tout en préservant la qualité de la donnée, le time to market et la facilité d'intégration (SQL, API, CUBE…). Vous serez en mesure de collaborer avec les membres de l'équipe IT ou Business Analyst, dans un environnement Agile , aussi bien au sein de l’équipe que « at scale » avec les autres équipes impliquées dans le projet de transformation.

Freelance
CDI

Offre d'emploi
Business Analyst technique (RAG / IA Générative)

VISIAN
Publiée le
AI
Business Analyst
Data science

1 an
44k-65k €
380-600 €
Paris, France

Contexte : Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du client. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'une entité asset IA, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Nous recherchons un business analyst ayant des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. Suivre la production afin de garantir la satisfaction du client. Description : Pilotage de l’alignement du système d’information du métier sur les orientations stratégiques et sur les processus métiers Proposition des scénarios d’évolution du système d’information cohérents avec les objectifs et les processus définis Contribution à l’optimisation des processus métiers, des données, des applications et des systèmes associés (détection d’opportunités…) Pilotage de la performance, notamment économique du SI Mise à disposition de la cartographie du système d’information comme un outil d’aide à la décision et au pilotage de la performance Anticipation des changements et de leurs impacts métiers sur le SI, et réciproquement Gestion du budget d'informatisation de son domaine Participation à l'administration du système d’information en termes de référentiels, règles, démarches, méthodologies, objets métier, et outils Évaluation de la cohérence unitaire et globale (portefeuille) des projets par rapport au système d’information (existant/cible) Consolidation des écarts en termes de délais, de coûts ou de qualité Capitalisation de l’ensemble des connaissances sur le système d’information du métier Mise en oeuvre de la qualité de la conduite de projet Gestion de la cartographie des compétences nécessaires à l’évolution du SI

Freelance

Mission freelance
Ingénieur Ops Data Kubernetes GitLab, Jenkins, Terraform, Ansible Azure AWS Lyon ou Lille/co

WorldWide People
Publiée le
Kubernetes
Python

12 mois
400-450 €
Lille, Hauts-de-France

Ingénieur Ops Data & IA Kubernetes GitLab, Jenkins, Terraform, Ansible Azure AWS Lyon ou Lille Expérience avérée dans la gestion d'applications Kubernetes . · Maîtrise des outils d'automatisation et de CI/CD : GitLab, Jenkins, Terraform, Ansible. · Expérience significative avec les plateformes cloud Azure et AWS. Participer à la gestion et à l'optimisation de notre infrastructure, en mettant l'accent sur les applications Data et d'intelligence artificielle · Gérer et optimiser les applications conteneurisées sur Kubernetes. · Automatiser les processus de déploiement et de gestion de l'infrastructure à l'aide de GitLab, Jenkins, Terraform et Ansible. · Travailler avec les plateformes cloud Azure et AWS pour déployer et gérer les services. · Collaborer avec les équipes de données et d'IA pour soutenir le développement et le déploiement de modèles d'IA. · Surveiller et améliorer les performances et la sécurité des systèmes. · Documenter les processus et les architectures. Compétences et qualifications requises · Expérience avérée dans la gestion d'applications Kubernetes . · Maîtrise des outils d'automatisation et de CI/CD : GitLab, Jenkins, Terraform, Ansible. · Expérience significative avec les plateformes cloud Azure et AWS. · Connaissance approfondie du monde de la data, des différents métiers, outils et de son écosystème. · Expérience en tant que Data Engineer appréciée. · Compréhension de l'écosystème de l'IA et expérience dans le déploiement de modèles d'IA, d'agent, d'applications RAG · Maîtrise de python · Capacité à travailler en équipe et à collaborer avec divers départements. · Excellentes compétences en résolution de problèmes et en communication

Freelance

Mission freelance
Data Engineer (localisation à PAU / 2j de tt max)

Cherry Pick
Publiée le
Python

12 mois
600-650 €
Paris, France

Contexte : L’objectif est de renforcer les capacités d’ingénierie de données pour améliorer la qualité, l’accessibilité et l’exploitation des données opérationnelles. Objectifs et livrables Objectifs de la mission : Définir les processus de gestion de données et d’information des outils digitaux du métier forage puits. Contribuer à la gouvernance des données (modélisation, documentation, standardisation). Développer et maintenir des pipelines de données robustes et automatisés. Développer et maintenir des outils de contrôle qualité des données (dashboards, alerting, audits). Participer à l’intégration de solutions IA / IA Générative pour des cas d’usage métier. Activités principales : Extraction, transformation et chargement de données issues de sources variées (structurées / non structurées, temps réel / historiques…). Développement de scripts et outils en Python (ou équivalent) pour l’automatisation des traitements. Mise en place / supervision de solutions IA / IA Générative (développées en interne ou customisées à partir d’outils du marché). Participation à la conception de modèles de données logiques et physiques. Mise en place / maintenance d’outils de suivi de qualité des données forage-puits (données real time WITSML, données WellView…), qui pourraient être développés en interne ou customisés sur la base d’outils du marché, pour des besoins spots ou pleinement automatisés et industrialisés. Définition du processus ‘data management’ pour l’outil de gestion de données real time : analyse du processus actuel, proposition d’améliorations et mise en place de ce nouveau processus, en collaboration avec l’éditeur de la solution. Définition, mise en place, puis supervision des tâches admin liées aux outils digitaux du métier forage-puits. Support aux utilisateurs métiers et accompagnement au changement.

Freelance

Mission freelance
Directeur CRM & Responsable CRM (Campagnes marketing Salesforce) 2 postes

Cherry Pick
Publiée le
CRM
Marketing
Salesforce Commerce Cloud

4 mois
400-600 €
Paris, France

🛠️ Missions principales Pour le profil Senior Audit & stabilisation du pôle CRM : identification des priorités, mise en pause des projets secondaires. Revenir aux best practices : assurer la qualité et la régularité des campagnes CRM. Pilotage stratégique et opérationnel des campagnes e-mails, SMS, programmes de fidélisation. Management & accompagnement des équipes existantes, notamment les chefs de projet démissionnaires. Travail étroit avec les équipes créatives pour aligner contenu, produit et message. Préparation et supervision des temps forts commerciaux : Noël, calendrier de l’Avent, Soldes. Appui stratégique sur la data : ciblage, segmentation, POC sur chatbot IA. Pour le profil Junior Prise en charge opérationnelle de la production CRM (campagnes newsletters, emailing). Rédaction et suivi des contenus CRM (ton, message, cohérence marque). Coordination avec les équipes créa et produit. Organisation et rigueur dans la gestion des campagnes. Contribution active aux projets CRM en cours (fidélisation, automation).

Freelance

Mission freelance
Data Architect - Nationalité Européenne exigée - Pas de TT

Intuition IT Solutions Ltd.
Publiée le
Large Language Model (LLM)
Oracle
PostgreSQL

1 an
660-730 €
Luxembourg

• Une expertise informatique avec une forte composante conception/architecture : le candidat doit savoir livrer / sécuriser / tracer et doit avoir une connaissance approfondie (à la fois théorique et pratique) de ce qu'est une infrastructure / micro-service / protocole de communication, et plus généralement des données de base. • Compréhension de l'IA et de l'IA dans un système d'information : le candidat doit comprendre la relation entre l'IA « classique » et l'IA « générative » dans une banque, savoir définir un RAG/un Agent (tout en comprenant les composants qui composent réellement ces éléments, pas forcément au sens détaillé « IA/modèle » mais au sens « IT » détaillé), et comprendre la différence entre un modèle d'apprentissage automatique pour la classification et un LLM. • Aisance dans l'environnement bancaire et plus particulièrement dans le contexte particulier du client interne afin d'identifier les enjeux : un environnement proche de la machine (peu de solutions pré-conçues comme Azure), des livrables attendus sur GPU, des éléments à intégrer dans le Groupe BNP, des travaux sur Kubernetes, liés aux applications legacy et nouvelles. Traitement de sons, d'images, de textes, de données tabulaires, de volumes et de sources de données diverses.

211 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous