Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 071 résultats.
Freelance

Mission freelance
INGÉNIEUR(E) RÉSEAU & SÉCURITÉ CONFIRMÉ(E)

Craftman data
Publiée le
Ansible
Azure
Check Point

3 mois
320-710 €
Le Havre, Normandie
MISSIONS PRINCIPALES 1. Audit et consolidation de l'existant (prioritaire) Réaliser un audit complet de l'architecture réseau et sécurité : cartographie des flux, segmentation réseau, politique de sécurité, configuration F5 et Check Point Valider et mettre à jour les documentations techniques, schémas de flux applicatifs et matrices de filtrage Réviser et proposer des amélioriations des configurations load balancing F5 (LTM, GTM, ASM/WAF) : VIPs, pools, health checks, SSL o]loading, iRules Réviser et proposer des amélioriations des configurations firewalls Check Point : règles de filtrage, NAT/PAT, VPN site-to-site et remote access, haute disponibilité ClusterXL Analyser les configurations BGP (annonces, policies, route-maps, geo-clusters DRP) et connectivités Azure ExpressRoute Identifier les vulnérabilités, points de fragilité et non-conformités, formuler des recommandations correctives priorisées 2. Transfert de compétences et accompagnement des équipes (prioritaire) Travailler en étroite collaboration avec les responsables d'infrastructure et l'équipe sécurité pour le transfert de connaissances Standardiser et documenter les configurations réseau/sécurité : runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité), procédures d'exploitation, guides de dépannage Former les équipes internes sur les bonnes pratiques d'exploitation F5 et Check Point 3. Accompagnement transformation microservices Contribuer à la définition de l'architecture réseau et sécurité pour la plateforme microservices cible Concevoir les patterns de sécurisation : segmentation réseau (East-West), service mesh (mTLS), ingress/egress, micro-segmentation Définir les politiques de filtrage, stratégies de load balancing applicatif, WAF et protection DDoS pour les services conteneurisés Accompagner les architectes sur les choix technologiques (ingress controllers, service mesh, network policies Kubernetes) Intégrer les principes de sécurité Zero Trust et defense-in-depth dans l'architecture microservices COMPÉTENCES TECHNIQUES REQUISES Obligatoires F5 BIG-IP : maîtrise confirmée LTM (load balancing), GTM (GSLB), ASM/Advanced WAF, configuration avancée VIPs/pools/nodes, SSL o]loading, iRules/iApps, haute disponibilité et monitoring Check Point : expertise firewalls (R80.x/R81.x), SmartConsole, règles de filtrage avancées, NAT/PAT, VPN (site-to-site, remote access), ClusterXL, logs et troubleshooting Routage et switching : LAN/WAN, protocoles BGP, OSPF, MPLS, segmentation VLAN/VRF, notions de SD-WAN, Azure networking : ExpressRoute, VNet, NSG, Azure Firewall, Application Gateway, Tra]ic Manager, Azure Monitor Architecture DRP : geo-clusters, réplication Appréciées Firewalls Fortinet, Palo Alto Network Load balancers alternatifs : Nginx, HAProxy, cloud-native ingress controllers Sécurité microservices : service mesh (Istio, Linkerd), mTLS, network policies Kubernetes, Zero Trust Outils d'automatisation réseau : Ansible, Terraform pour configurations réseau/sécurité CERTIFICATIONS SOUHAITÉES F5 Certified BIG-IP Administrator ou F5 Certified Technology Specialist Check Point Certified Security Administrator (CCSA) ou Check Point Certified Security Expert (CCSE) Cisco CCNP Enterprise ou équivalent Microsoft Certified : Azure Network Engineer Associate (AZ-700) ITIL Foundation
Freelance

Mission freelance
Data Scientist IA / NLP

ALLEGIS GROUP
Publiée le
Data science

1 an
Île-de-France, France
Suite à la mise en production d’une solution de relation client basée sur l’IA (Speech-to-Speech) , Le Client lance le déploiement à grande échelle de cette solution sur plusieurs canaux digitaux, dans une logique d’ industrialisation . Dans ce cadre stratégique, il souhaite renforcer ses équipes Data afin d’accompagner deux chantiers majeurs : Amélioration et industrialisation du monitoring Mise en place de Test Ops avancés , incluant la création d’une Test Case Factory “IAisée” : Génération automatique de scénarios de tests Approche Data Science pour valider chaque nouvelle version Garantir la robustesse et la performance des solutions déployées Plusieurs Data Scientists sont recherchés pour scaler aux côtés des équipes . MISSIONS : Concevoir et améliorer les dispositifs de monitoring des solutions IA en production Définir et implémenter une usine de tests automatisés basée sur l’IA Travailler sur des problématiques de texte et de langage (Speech, NLP, LLM, agents intelligents) Collaborer étroitement avec les équipes Produit, Tech et Data dans un contexte d’industrialisation
Freelance

Mission freelance
Ingénieur Data (RIM / IDMP)

CS Group Solutions
Publiée le
Data analysis

6 mois
Île-de-France, France
Nous recherchons un Ingénieur Data (RIM / IDMP) Objectif global :Accompagner l’équipe Data Entry (RIM / IDMP) Compétences techniques: affaires réglementaires - Confirmé - Impératif RIM /IDMP - Confirmé - Impératif Mission / Responsabilités : - Développer une compréhension détaillée de la configuration RIM, des processus, des rôles et des responsabilités. - Collaborer avec les équipes RIM Business Run et Data Entry pour traiter les tickets liés aux processus (problèmes / questions / mode opératoire) provenant d’un large éventail de parties prenantes. - Élaborer des propositions d’amélioration des processus, mettre à jour les guides utilisateurs et partager/diffuser ces consignes. Utiliser les canaux les plus appropriés pour traiter les problèmes urgents (par exemple : sessions de partage de connaissances Q&A, newsletters, communications directes). - Travailler avec les équipes métier (experts métiers) pour collecter les demandes d’amélioration et les transformer en demandes de changement (« change requests ») exploitables pour les équipes IT Run. - Participer activement aux sessions de priorisation et de planification des releases RIM. - Participer aux activités de UAT (User Acceptance Testing) en tant que représentant métier, selon les besoins. - Soutenir l’équipe de migration des documents/archives avec des contributions continues sur les processus métier. - Aider les experts data à résoudre les problèmes en cours liés aux données associées aux étapes des processus. __________ Expérience / Compétences : - Expérience démontrée dans les processus réglementaires globaux (Global Regulatory Business Process) incluant : - planification des changements globaux/locaux - planification et suivi des soumissions - planification et suivi des enregistrements - gestion des CCDS et de l’étiquetage local - reporting - Expérience avec Veeva Vault RIM (en tant qu’utilisateur final) fortement préférée. - Expérience en cartographie/modélisation des processus souhaitée. - Diplôme de niveau Master dans un domaine des sciences de la vie, informatique, ou bioinformatique souhaité. - Excellentes compétences en communication en anglais. - Autonomie, esprit d’initiative et aptitude à résoudre des problèmes (troubleshooting mindset).
Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Freelance

Mission freelance
: Assistant RSSI e-Commerce & Big-Data 500 e par jour

BI SOLUTIONS
Publiée le
Big Data
Cybersécurité

2 ans
400-500 €
Île-de-France, France
: Assistant RSSI e-Commerce & Big-Data 500 e par jour Assister le RSSI dans la gestion de la gouvernance, la sécurisation des processus, la sécurité des développements, et la sécurité des infrastructures liées au e-Commerce et à la data de Carrefour France, regroupant plusieurs métiers tel que Voyages, Spectacles, Cartes Cadeaux, eCommerce Retail et BigData; en apportant une expertise technique et en assurant un rôle de challenge auprès des équipes informatiques et métiers. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. ● Connaissances des contraintes, technologies et risques liés à un site e-Commerce et aux services aux clients ● Connaissances des contraintes, technologiques et risques liés aux développements d’application web et mobile à destination des clients, mais aussi des collaborateurs. ● Connaissances des best practices de développement et des référentiels associés (OWASP) ● Connaissances des contraintes et technologies spécifiques au Big Data et la gestion du cycle de vie de la donnée et des contraintes réglementaires liées à la gestion de données personnelles. ● Sensibilité à la fraude client ● Techniques d’attaques courantes ● Bonnes pratiques ANSSI ● Protocoles de communications couramment utilisés ● Méthode Ebios RM d'analyse de risques 500 e par j
Freelance
CDI

Offre d'emploi
 Data Scientist – IA (F/H)

K-Lagan
Publiée le
Big Data
Data science
IA

1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet en Data & IA donnait un vrai sens à votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets innovants où la Data et l’Intelligence Artificielle sont au cœur de la transformation des entreprises. Aujourd’hui, nous recherchons un·e Data Scientist – IA (F/H) pour rejoindre l’un de nos clients dans un environnement stimulant et orienté innovation. 🔍 Contexte Vous interviendrez sur des projets à forte valeur ajoutée, visant à exploiter la donnée pour améliorer la prise de décision, automatiser des processus et développer des modèles prédictifs . Vous évoluerez au sein d’équipes pluridisciplinaires dans un environnement agile. 🎯 Missions Concevoir, développer et déployer des modèles de Machine Learning / IA Analyser et exploiter des volumes de données complexes Participer à la définition des cas d’usage Data & IA Mettre en production les modèles et suivre leur performance Collaborer avec les équipes Data Engineering, BI et métiers Assurer la qualité, la robustesse et la fiabilité des modèles Contribuer à l’ amélioration continue des solutions IA
Freelance
CDI

Offre d'emploi
Ing Devops - DigitalBackbone

RIDCHA DATA
Publiée le
CI/CD
DevOps
Google Cloud Platform (GCP)

1 an
Île-de-France, France
RIDCHA DATA est à la recherche d’un DevOps Engineer GCP – Confirmé pour accompagner son client acteur majeur dans le secteur industrie. 1- Descriptif du poste Au sein de l’équipe produit Digital Backbone, l’Ingénieur DevOps qui contribuera au design, construction et aux opérations de la platforme. Le projet se situe aussi dans le cadre de l’ouverture de l’entreprise vers le cloud et la recherche des solutions pour l’échange des données entre les applications en interne et les applications dans le cloud tout en garantissant leur sécurité. Expertises recherchées : • Mise en place des services cloud public (GCP) intranet et usines • Mise en place d’une automatisation de ces services via Ansible et Terraform • Mise en place d’une chaine de CI/CD pour le déploiement de ces services d’un environnement de développement jusqu’à l’environnement de production • Toute mise en place de service s’accompagne d’un monitoring • Gérer un environnement Docker • Gérer sur ces environnements l’aspect sécurité et finops (gestion des couts) • Support L3 sur la plateforme • Support au RUN sur la plateforme. 2- Livrables • Livrable de la platforme Cloud GCP, Intranet et usines. • Documentation technique • Mise en place des dashbord monitorant les services déployés • Site Reliability engineering • Coaching des équipes projets au travers des supports et standard • Support du dev au RUN vis-à-vis des projets livrés.
CDI
Freelance

Offre d'emploi
AI ENGINEER - DATA SCIENTIST

SMILE
Publiée le
Data science
Pilotage
Python

6 mois
Paris, France
Au sein de la DSI Corporate d’un grand groupe bancaire, le département Développements Tactiques de la direction Fast Delivery Solutions recrute un Expert Leader Data & IA . Cette direction a pour but de mettre en place des solutions rapides au service de l'ensemble des directions métiers et des fonctions supports, en réponse à des besoins ponctuels ou pérennes. En lien avec les DSI métiers, elle en assure la maintenance et participe à leur éventuelle intégration dans le SI. Pour ce faire, elle met au service des filières métiers une équipe de proximité multi solutions afin de les aider dans leurs travaux ponctuels, la réalisation de POC (Proof Of Concept), de reportings ou bien encore l’automatisation de tâches récurrentes. La mission se situe au sein du département Développements Tactiques qui a pour mission de : Développer des outils en mode commando et en proximité directe avec le métier. Mettre en œuvre des solutions faisant appel à de l’IA générative pour répondre à des besoins métier. Accompagner l’industrialisation de ces solutions dans le parc applicatif des DSI filières. Étudier la possibilité de mise en œuvre de solutions innovantes, au travers d’une veille technologique et d’études d’opportunités. Participer à des évènements et animations de démo ou d’ateliers autour de l’IA ou de la data. L’équipe, actuellement constituée de 19 membres (Data Engineers, Data Scientists et Développeurs FullStack), fonctionne entièrement en mode agile et en proximité avec les métiers. Jeune, dynamique, motivée et très proactive, l’équipe valorise l’entraide et la bonne ambiance. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les soft skills sont donc autant essentielles que les compétences techniques : bon communiquant, motivé, force de proposition et sociable. Compétences techniques déjà présentes dans l’équipe : Développement autour de l’IA Générative. Développement Python / Pycharm. Développement Front Angular. Développement de cas d’usage IA générative à destination du business. Développement PySpark / Spark / Scala. Connaissance des plateformes Cloud. Mise en œuvre de workflows sous Alteryx. La mission : L’équipe se voit confier un nouveau programme visant à mettre en œuvre un ensemble de Use Cases faisant appel à de l’IA générative ou consistant à automatiser des traitements. Pour faire face à ce nouveau programme, nous souhaitons renforcer nos compétences avec un AI Engineer confirmé Data & IA . Principales missions : Innovation et réalisation de POCs : assurer la faisabilité technique des cas d’usage, développer des POCs autour de projets IA générative, proposer des solutions innovantes (LLM, prompts, RAG, traitement de données complexes). Industrialisation : en collaboration avec la production applicative et les contributeurs DSI, industrialiser les sujets dont les POCs s’avèrent concluants. Expertise Data & IA Générative : leader techniquement les projets, en s’appuyant sur les technologies internes (plateforme cloud, outils IA, modèles de langage type Gemini). Force de proposition : identifier des axes d’amélioration et proposer des solutions innovantes. Partage de connaissances : contribuer à la montée en compétences collective au sein de l’équipe. Suivi des sujets : assurer une communication claire et synthétique au responsable de l’équipe et aux Product Owners.
Freelance

Mission freelance
Data Science Sénior - Expert Search Ecommerce (550€ MAX)

BEEZEN
Publiée le
Data science

6 mois
400-550 €
Île-de-France, France
vous rejoignez une team dédiée à l'un des piliers stratégiques :le moteur de recherche de produit. Votre mission est de transformer l'intention d'achat de clients en une expérience fluide, pertinente et performante. Vous serez le référent technique sur l'évolution de notre moteur de recherche, en passant d'une approche textuelle classique à une expérience de recherche sémantique et personnalisée. Stratégie Search : Collaborer avec les Product Managers pour définir la roadmap de pertinence (recherche textuelle, sémantique, hybride). Architecture Vectorielle : Concevoir et déployer des solutions de Vector Search (Embeddings, ANN) pour capturer l'intention client au-delà des mots-clés. Optimisation du Ranking : Implémenter et itérer sur des modèles de Learning to Rank (LTR) et de Reranking pour arbitrer entre pertinence métier, mix marge et préférences utilisateur. Évaluation de la pertinence : Mettre en place des protocoles d'A/B testing rigoureux et des frameworks d'évaluation (nDCG, MRR, Click-through rate). Expertise Elasticsearch : Optimiser les confi gurations, les analyseurs et les requêtes complexes
CDI

Offre d'emploi
Business Data Analyst Confirmé F/H - Marketing (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data

Montrouge, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Engineer Teradata et Big Data H/F

CONSORT GROUP
Publiée le
Big Data
Teradata

55k-62k €
75017, Paris, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de ConsortIA , sont des acteurs de référence de la Data, du Développement Digital et de l'Ingénierie Média. En combinant ces expertises, nous concevons des systèmes d’information augmentés, intégrés, agiles et sécurisés, au service de la performance et de la transformation numérique de nos clients. Data Engineer Teradata et Big Data H/F C’est votre mission Vous êtes passionné·e par [XXX] ? Ce poste est fait pour vous. En tant que Data Engineer Teradata et Big Data , vous êtes responsable du [XXX] et [XXX] de notre écosystème : Côté build : Concevoir et développer des solutions DataMart / Datalab sur environnement Teradata Mettre en œuvre les chaînes ETL via BTEQ / TPT Développer des traitements de collecte, transformation et stockage de données sur plateforme Big Data Construire des agrégats et indicateurs (scores, datamarts) à destination des équipes Data Science Développer des pipelines de données sous environnements Spark / Hadoop / HDFS Participer à la modélisation et au design des solutions de données (bonnes pratiques Data Engineering) Industrialiser les traitements dans un contexte Unix / SQL / Teradata Utiliser les outils collaboratifs (Git, Jira, Confluence, MEGA) dans un cadre Agile Côté run : Assurer le support et la maintenance des chaînes de production Data Surveiller et optimiser les traitements batch (ordonnancement via Control-M ) Gérer les incidents de production sur les flux Teradata / Big Data Analyser et corriger les anomalies sur les traitements SQL / ETL Garantir la disponibilité et la performance des jobs data Participer à l’amélioration continue des pipelines (fiabilisation, optimisation) Assurer le support aux équipes Data Science sur les environnements de données Maintenir la documentation technique (Confluence, MEGA) Suivre les bonnes pratiques d’exploitation dans un contexte DevOps C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements DevOps exigeants. Vous aimez concevoir et industrialiser des pipelines de données robustes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Environnement Linux / Unix dans un contexte Agile et DevOps Maîtrise des technologies Data : Teradata, SQL, BTEQ, TPT Écosystème Big Data : Spark, Hadoop, HDFS, Python Outils d’exploitation et d’ordonnancement : Control-M Outils collaboratifs : Git, Jira, Confluence, MEGA Connaissance de solutions ETL / Data : Datastage Bonne compréhension des architectures de données et pipelines industrialisés C’est votre manière de faire équipe : Rigueur et sens de la qualité dans les traitements de données Esprit d’analyse et capacité de résolution de problèmes complexes Collaboration forte avec équipes Data, IT et métier Autonomie et sens des responsabilités en environnement de production Communication claire et esprit d’équipe Adaptabilité dans des environnements techniques évolutifs (DevOps / Big Data) Culture de l’amélioration continue et du delivery fiable C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Paris Contrat : CDI Télétravail : Hybride Salaire : De 55K € à 62K € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/l

WorldWide People
Publiée le
Data science

6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
CDI

Offre d'emploi
Ingénieur Data & API (H/F)

SYAGE
Publiée le
Apache Kafka
API REST
GraphQL

Monaco-Ville, Monaco
Mission : Au sein de l’équipe d’Ingénierie Logicielle, vous interviendrez dans les projets digitaux sur l’intégration de flux de données inter-applicatifs et DATA, et la mise en œuvre de l’exposition d’API via une plateforme d’API Management (). Principales Activités : Vous serez chargé(e) de l’architecture et l’intégration des flux dans la plateforme KESTRA (batch, ETL, event streaming...) Vous assurerez l’implémentation script ETL Python dans le cadre des flux de données Vous prendrez en charge l’exposition et la création d’API sur la plateforme d’API Management avec notamment : sécurisation, filtrage, médiation de protocole Lien hiérarchique : Responsable Informatique Ingénierie logicielle Manager : Non
Freelance
CDI

Offre d'emploi
Consultant Data Governance & Data Migration (H/F)

Deodis
Publiée le
Data governance
Data Lake

1 an
38k-50k €
430-600 €
Île-de-France, France
En tant que Consultant Data spécialisé en gouvernance et migration, vous intervenez au cœur d’un programme stratégique de transformation visant à structurer, fiabiliser et harmoniser les flux de données dans un environnement complexe. Intégré(e) au Data Office, vous jouez un rôle clé dans la définition des besoins métiers, la conception des flux de données et le pilotage des livraisons, tout en garantissant la qualité, la traçabilité et la conformité des données. À ce titre, vous animez des ateliers avec les équipes métiers et IT afin de recueillir et formaliser les besoins data, réalisez des analyses d’écart entre les systèmes existants et les solutions cibles, et concevez les data lineage de bout en bout. Vous participez activement aux ateliers de conception fonctionnelle et technique, en apportant votre expertise sur les enjeux de gouvernance, de qualité et d’architecture des données. Vous êtes également en charge du pilotage de la roadmap data, en assurant le suivi des livraisons, l’identification des dépendances critiques et la gestion des risques. Vous maintenez un backlog structuré, suivez les indicateurs de performance et contribuez à la mise en place des standards de gouvernance et de qualité définis par le Data Office. Enfin, vous agissez comme référent sur votre périmètre, en accompagnant les équipes dans l’adoption des bonnes pratiques, en produisant une documentation de qualité (data dictionaries, processus, cartographies de flux) et en contribuant aux actions de change management dans un contexte de transformation à grande échelle.
CDI

Offre d'emploi
Ingénieur Data Scientist /Intelligence artificielle en alternance - Toulouse (31) H/F

█ █ █ █ █ █ █
Publiée le

Toulouse, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Architect DATABRICKS Azur gen AI 600 e /J

BI SOLUTIONS
Publiée le
Big Data
Python

2 ans
400-600 €
Île-de-France, France
Data Architect DATABRICKS Azur gen AI 600 e /J – Minimum 6-8 ans d’expérience en data, dont plusieurs années en architecture – Expérience confirmée en environnement Azure – Forte maîtrise d’Azure Databricks, Spark, Delta Lake – Expérience en conception de plateformes Big Data à forte volumétrie – Connaissances en intégration de modèles ML en production – Bonne compréhension des architectures GenAI / LLM (RAG, vectorisation, orchestration) – Capacité à interagir avec des équipes métiers industrielles – Anglais courant – Expérience Volvo fortement appréciée Le poste s’inscrit dans un environnement exigeant, orienté performance industrielle et transformation digitale. Nous recherchons un profil structurant, capable de poser les bases d’une architecture robuste et évolutive, tout en accompagnant la montée en maturité IA du client. Compétences professionnelles et techniques: - Azure - Databricks - Python - Gen AI - Angl
3071 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous