L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 323 résultats.
Offre d'emploi
Data scientist / Ingénieur IA & Produits - Prompt Engineering & Evaluation
PARTENOR
Publiée le
Agent IA
Deep Learning
IA Générative
1 an
65k-70k €
560-660 €
Puteaux, Île-de-France
Les missions du poste Dans le cadre d'un projet international stratégique, nous recherchons un(e) Ingénieur IA & Produits pour contribuer au développement de solutions d'IA avancées dédiées à l'enrichissement de contenus et de produits à forte valeur ajoutée. L'architecture technique et les problématiques seront alignées avec celles déjà déployées par l'équipe française, avec une forte dimension Prompt Engineering avancé et évaluation des performances. Vous interviendrez au croisement de la recherche appliquée, de l'ingénierie IA et de la logique produit. Vos missions - Prompt Engineering avancé - Concevoir et optimiser des stratégies de prompting complexes - Développer des chaînes de prompts robustes et industrialisables - Adapter les prompts selon les cas d'usage métier - Gérer la variabilité et la stabilité des outputs - Evaluation & métriques - Concevoir des pipelines d'évaluation des prompts - Définir des métriques de qualité (pertinence, factualité, robustesse) - Mettre en place des benchmarks comparatifs - Optimiser les performances selon précision / latence / coûts - Développement & mise en production - Concevoir des solutions intégrant LLM, Deep Learning et architectures agentiques - Développer des workflows multi-agents - Implémenter des modèles NLP (classification, extraction, enrichissement) - Industrialiser les solutions en environnement produit
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Mission freelance
Data Engineer (F/H)
CELAD
Publiée le
1 an
450-550 €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
45k-55k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Offre d'emploi
📩 Data Governance Specialist – Data Catalog & Integration
Gentis Recruitment SAS
Publiée le
Apache Airflow
Collibra
Data governance
6 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son Center of Expertise Data Governance , notre client recherche un Data Governance Specialist pour intégrer l’équipe “Expertise”. Cette équipe joue un rôle transverse clé et intervient sur : la structuration des standards de gouvernance data l’industrialisation des pratiques la résolution des problématiques rencontrées par les équipes métiers et data (Digital Units) La mission s’inscrit dans un environnement data platform avancé , avec des enjeux forts autour de : Data Catalog Data Quality AI Governance Data Contracts Objectifs de la mission 1. Data Catalog (Collibra) – Configuration & amélioration produit Concevoir et implémenter des solutions dans Collibra Configurer l’outil (workflows, administration, évolutions spécifiques) Recueillir et prioriser les besoins utilisateurs Valider et implémenter les spécifications fonctionnelles 2. Intégration dans l’écosystème data Participer à l’intégration du Data Catalog avec la Data Platform Concevoir les flux d’échange de métadonnées Développer et maintenir les connecteurs (API, crawling, etc.) Collaborer avec les équipes architecture Gérer l’interaction avec le support éditeur 3. Gouvernance & transformation Contribution au programme Data Contracts Participation aux sujets stratégiques : AI Governance Framework Trust AI Data Quality by Design Environnement technique Data Catalog : Collibra Data Platform : Databricks Transformation : dbt Orchestration : Apache Airflow Intégration : APIs, connecteurs, metadata exchange Data Quality : Metrics Store / framework interne Compétences attendues Must have Data Governance (confirmé) Data Catalog (idéalement Collibra) Intégration data / metadata / APIs Databricks (avancé) dbt (avancé) Apache Airflow (avancé) Nice to have Expérience sur des programmes de Data Contracts Connaissance des enjeux AI Governance Expérience en environnement data platform à grande échelle Soft skills Capacité à travailler en transverse Bon relationnel avec équipes métiers et techniques Approche structurée / orientée solution Capacité à gérer des sujets complexes
Offre d'emploi
Administrateur Outils / Systèmes / Réseaux H/F
Le Groupe SYD
Publiée le
Confluence
Google Workspace
JIRA
12 mois
45k-50k €
450-500 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 💼 Poste : Administrateur Outils / Systèmes / Réseaux H/F 📍 Lieu : Nantes (44) 🏠 Télétravail : Jusqu’à 2 jours/semaine (selon conditions U Tech) 📝 Contrat : Portage ou CDI 👉 Contexte client : Tu rejoins la DSI d’un grand acteur de la distribution , au sein de la plateforme Postes de Travail . L’équipe (environ 15 personnes) est structurée en deux pôles : Socles et Outils , et mène actuellement une transformation d’envergure vers des environnements Modern Management et Digital Workplace . La mission consiste à renforcer l’équipe avec un Administrateur capable d’intervenir en exploitation avancée , industrialisation , packaging , automatisation , et pouvant contribuer aux deux plateformes selon son niveau d’expertise. Tu auras pour missions de : Participer à l’administration du parc Windows : télédistribution, remédiations, patching, intégration de composants . Réaliser et participer à des POC (ex. : comparaison de solutions d’écrans collaboratifs). Définir et mettre en œuvre un plan de MCO sur les équipements de visioconférence. Créer, maintenir et structurer la documentation technique : architectures, procédures, configurations. Assurer le support niveau 3 : résolution d’incidents complexes non traités par les niveaux 1 & 2. Diagnostiquer les incidents complexes : performance, compatibilité, sécurité. Collaborer avec les éditeurs et partenaires pour résoudre les problématiques techniques. Contribuer à l’automatisation et à l’industrialisation des processus. Maintenir les actions dans le backlog Jira et la documentation dans Confluence . 🧰 Stack technique : Systèmes : Windows 11, MacOS, Linux Ubuntu Outils de gestion & Modern Management : Ivanti EPM, Ivanti UWM, Microsoft MDT, HPDM ITSM / Collaboration : Jira, Confluence, ServiceNow, Google Workspace Méthodes & pratiques : télédistribution, packaging d’applications, automatisation / scripting, MCO, documentation structurée
Offre d'emploi
Consultant Fonctionnel – Reprise de Données / SQL H/F
HAYS France
Publiée le
Data analysis
Data management
Data quality
1 an
40k-52k €
330-440 €
Bouches-du-Rhône, France
Nous recherchons un consultant fonctionnel spécialisé dans la reprise de données dans le cadre de projets ERP. Vous interviendrez sur l’analyse, l’extraction, la transformation et l’intégration des données de gestion et données comptables. Missions Analyser les besoins fonctionnels liés à la reprise de données. Préparer, traiter et intégrer les données dans un ERP : Commandes Factures Écritures ou données comptables Maîtriser les requêtes et manipulations SQL pour extraction, transformation et contrôle qualité. Assurer la fiabilité, la cohérence et la conformité des données reprises. Collaborer avec les équipes métier, fonctionnelles et techniques. Contribuer à la documentation et aux étapes de validation.
Offre d'emploi
Technical Lead IA - Agentique
KORAY-IT
Publiée le
IA
36 mois
51k-67k €
550-680 €
Île-de-France, France
Technical Lead IA — Plateforme Agentique | IDF Ouest | ESN Contexte Vous intégrez une équipe stratégique dédiée à la conception et l'industrialisation d'une plateforme agentique IA au sein d'un grand compte du secteur financier. Vous jouez un rôle central entre architecture, DevOps et leadership technique. Vos missions Piloter l'architecture technique de la plateforme agentique (Registry, Gateway, MCP, workflows) Encadrer une équipe de développeurs et animer les bonnes pratiques (clean code, revues, documentation) Mettre en œuvre et opérer la chaîne CI/CD, les environnements Kubernetes et l'observabilité Contribuer à la qualification et l'industrialisation des agents IA (de la création au run) Être l'interlocuteur transverse des équipes Data, SSI et métiers Stack technique IA & Agents : Python expert, Langchain, Langgraph, FastAPI, MCP, Dust, Mistral DevOps / Cloud : Kubernetes, Docker, GitLab CI, Terraform, AWS/Azure, Datadog, Grafana Sécurité : Keycloak, OIDC/JWT, DevSecOps, RBAC Intégration : Kafka, OpenAPI, YAML, Java, Angular Profil recherché 7+ ans d'expérience dont au moins 2 ans sur des sujets IA/LLM en production Expérience confirmée en leadership technique et encadrement d'équipe Connaissance des contextes réglementés (bancaire, SSI, AI Act appréciée) Pratique des méthodes Agile / SAFe (PI Planning, System Demo) Ce que nous proposons : Mission longue durée en régie — IDF Ouest Environnement technologique cutting-edge Interlocuteur ESN dédié et réactif
Offre d'emploi
Ingénieur IA (Conception & Développement) (H/F)
1G-LINK CONSULTING
Publiée le
Large Language Model (LLM)
MLOps
Natural Language Processing (NLP)
12 mois
Paris, France
Contexte : Dans le cadre du développement de solutions innovantes en Intelligence Artificielle, nous recherchons un Ingénieur IA pour renforcer nos équipes techniques. Missions : Concevoir, développer et entraîner des modèles (ML / DL / GenAI) Déployer et industrialiser les solutions IA Optimiser les performances et la qualité des modèles Travailler en collaboration avec les équipes data et IT Compétences techniques : Python, TensorFlow / PyTorch / scikit-learn Traitement de données & pipelines Déploiement de modèles, API, MLOps Environnements Cloud Connaissance NLP / LLM appréciée
Mission freelance
Data Engineer (Bordeaux) H/F
LeHibou
Publiée le
Azure Synapse
6 mois
400-450 €
Bordeaux, Nouvelle-Aquitaine
Notre client dans le secteur Immobilier recherche un/une Data Engineer H/F Description de la mission: Offre de mission – Data Engineer Contexte et objectif de la mission Notre client est composé de plusieurs filiales et structures de services partagés (IT, RH, juridique, finance, marketing). Le groupe est engagé dans une transformation digitale avec des enjeux autour de la gouvernance de la donnée, de l'harmonisation des systèmes d'information entre filiales et de la structuration d'une plateforme data moderne. La DSI pilote un programme de refonte de l'infrastructure data et souhaite renforcer son équipe avec un Data Engineer expérimenté capable de construire et maintenir des pipelines robustes, de structurer les flux de données entre les différentes entités du groupe et d'alimenter les outils de restitution. Missions principales Le/la consultant(e) interviendra au sein de l'équipe Data pour : • Concevoir, développer et maintenir des pipelines de données (ingestion, transformation, chargement) • Administrer et exploiter Azure Synapse Analytics comme socle de la plateforme data • Modéliser les données (modélisation dimensionnelle, data warehouse, data lakehouse) • Écrire et optimiser des requêtes SQL complexes sur les bases du groupe • Développer des scripts et orchestrateurs en Python pour l'automatisation des flux • Connecter les sources de données à Power BI et garantir la qualité des données exposées aux analystes • Contribuer à l'harmonisation des données entre les filiales du groupe • Participer à la gouvernance de la donnée (documentation, qualité, traçabilité) Stack technique Compétences obligatoires : • Azure Synapse Analytics : maîtrise obligatoire • SQL : maîtrise obligatoire (requêtes complexes, optimisation) • Python : maîtrise obligatoire (ETL, orchestration, scripting) • Power BI : bonne connaissance (alimentation des modèles) Environnement complémentaire apprécié • Azure Data Factory / Azure Data Lake • Spark / PySpark • Outils de versionning (Git) • Notions de modélisation dimensionnelle Profil recherché Compétences techniques : • Expérience confirmée sur la conception et le maintien de pipelines de données en environnement cloud Azure • Solide maîtrise de SQL et des environnements analytiques (Synapse, DWH) • Bonne maîtrise de Python dans un contexte data engineering (ETL, automatisation) • Capacité à exposer des données propres et fiables vers des outils de BI • Connaissance des bonnes pratiques de qualité et gouvernance de la donnée Compétences comportementales : • Autonomie et rigueur dans les développements • Adaptabilité dans un environnement multi-filiales en transformation • Sens du détail et souci de la qualité de la donnée • Bonnes capacités relationnelles pour collaborer avec les équipes métiers et IT • Dynamisme et réactivité face aux priorités Atout majeur • Certification Microsoft Azure (DP-203 Data Engineer ou équivalent) appréciée
Mission freelance
Data Scientist / AI Engineer
ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)
1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
Offre d'emploi
Product Owner / Chef de Projet IA Générative – Chatbot
OBJECTWARE
Publiée le
Chatbot
3 ans
Île-de-France, France
Contexte de la mission Dans le cadre du programme de notre client, celui-ci souhaite concevoir et déployer une plateforme de chatbot intelligent et sécurisé destinée à accompagner les collaborateurs dans leurs activités quotidiennes. Cette solution permettra de proposer une expérience conversationnelle multilingue , intégrant des assistants métiers, des prompts, des fichiers et des indicateurs de performance, tout en respectant les standards de sécurité et d’accessibilité du groupe (RGAA) . Vos missions Au sein de l’équipe produit, vous interviendrez sur : La définition des exigences fonctionnelles et réglementaires (RGAA, sécurité) La construction de la roadmap produit et la planification des releases La priorisation des fonctionnalités (MVP, backlog, User Stories) La définition et le suivi des KPIs d’usage et de performance La cartographie des assistants et des prompts métiers La définition des parcours utilisateurs et scénarios conversationnels La mise en place d’un modèle de gouvernance et de gestion des accès L’analyse des retours utilisateurs et l’amélioration continue de la solution Profil recherché Expérience significative en tant que Product Owner / Chef de Projet IT / Business Analyst Expérience sur des projets Chatbot, Conversational AI ou IA Générative Bonne maîtrise des méthodes Agile (Scrum / SAFe) Expérience en gestion de backlog, rédaction de User Stories et pilotage produit Connaissance des environnements LLM / GenAI / assistants conversationnels Bonne compréhension des enjeux UX, gouvernance et sécurité ⭐ Compétences appréciées Prompt engineering NLP / LLM Digital Workplace API / intégration SI Accessibilité RGAA
Offre d'emploi
Product Owner Big Data
KLETA
Publiée le
Big Data
Product management
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Product Owner Big Data pour piloter la roadmap d’une plateforme data industrielle et maximiser la valeur des produits data. Vous analyserez les besoins métiers et techniques, structurerez le backlog produit et proposerez des trajectoires d’évolution alignées avec la stratégie data de l’entreprise. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science, BI, Cloud et DevOps pour traduire les besoins en user stories claires, définir des critères d’acceptance et prioriser les fonctionnalités à forte valeur ajoutée. Vous accompagnerez la mise en place de produits data fiables, documentés et exploitables, en intégrant des enjeux de qualité, de gouvernance et de performance. Vous animerez des ateliers avec les parties prenantes, participerez aux cérémonies agiles et suivrez des indicateurs d’usage et de création de valeur. Vous aurez également un rôle clé dans la communication entre équipes techniques et métiers, en facilitant l’alignement stratégique et en promouvant une culture produit orientée données et impact business.
Mission freelance
Data Analyst (Bordeaux) H/F
LeHibou
Publiée le
Microsoft Power BI
6 mois
400-450 €
Bordeaux, Nouvelle-Aquitaine
Notre client dans le secteur Immobilier recherche un/une Data Analyst H/F Description de la mission: Offre de mission – Data Analyst Contexte et objectif de la mission Notre client, composé d'environ 1 400 collaborateurs et de plusieurs filiales ainsi que de structures de services partagés (IT, RH, juridique, finance, marketing), est engagé dans une transformation digitale ambitieuse. Les enjeux portent notamment sur la gouvernance de la donnée, l'harmonisation des systèmes entre filiales et l'intelligence des processus métiers. Dans ce cadre, la DSI pilote un programme de montée en compétences data et souhaite renforcer son équipe avec un.e Data Analyst opérationnel capable d'intervenir rapidement sur des sujets de production et de restitution de données. Missions principales Le/la consultant(e) interviendra directement au sein de l'équipe Data pour : • Interroger et exploiter les bases de données via des requêtes SQL et des connexions Synapse • Produire des rapports et analyses à destination des équipes métiers et du management • Créer et maintenir des tableaux de bord Power BI répondant aux besoins des différentes filiales • Développer des scripts Python pour l'automatisation et le traitement des données • Contribuer à l'harmonisation des reportings entre les entités du groupe • Potentiellement animer des sessions de formation internes sur Power BI Stack technique • SQL : maîtrise obligatoire • Power BI : maîtrise obligatoire • Azure Synapse : expérience requise • Python : bonne maîtrise Profil recherché Compétences techniques : • Maîtrise de Power BI, incluant modélisation, DAX et publication • Solide expertise SQL, incluant requêtes complexes et optimisation • Expérience sur Azure Synapse Analytics • Bonne connaissance de Python pour le traitement de données, notamment avec pandas • Notions de modélisation dimensionnelle appréciées Compétences comportementales : • Autonomie et capacité à travailler de manière indépendante • Adaptabilité face aux changements d'environnement et de priorités • Sens du détail et rigueur dans la production de données • Bonnes capacités relationnelles pour interagir avec les parties prenantes métiers • Énergie et réactivité dans le delivery Atout majeur • Certification Power BI de type PL-300 ou équivalent fortement appréciée • Des actions de formation interne sont envisagées
Mission freelance
IA Delivery Lead
Axande
Publiée le
IA
Product management
1 an
400-550 €
Villeneuve-d'Ascq, Hauts-de-France
Nous recherchons pour notre client un IA Delivery Lead capable d’intervenir à la fois sur les dimensions product management, AMOA et pilotage de delivery , avec une forte sensibilité aux sujets liés à l’IA. Nous étudions uniquement les candidatures qui nous parviennent avec tous les éléments indiqués dans la rubrique "Pour candidater" ci-dessous. Compétences techniques attendues Bonne compréhension des technologies IA générative (copilots, agents IA, RAG), y compris leurs limites (ex : hallucinations) Connaissance des principes MLOps (niveau fonctionnel / usage) Compréhension de la gestion et structuration des données (référentiels, “Golden Data”) Capacité à appréhender les enjeux fonctionnels liés à l’IA (qualité, traçabilité, contrôles) Compétences fonctionnelles & delivery Expérience solide en product management (roadmap, backlog, priorisation, MVP) Maîtrise des méthodes Agile (Scrum, Kanban) et du pilotage multi-projets Capacité à gérer un delivery complexe avec plusieurs parties prenantes (métiers, IT, data) Forte compétence en AMOA : Recueil et formalisation du besoin Animation d’ateliers Rédaction de spécifications fonctionnelles
Offre d'emploi
Administrateur Systèmes et Réseaux (H/F)
SEA TPI
Publiée le
35k-39k €
La Ciotat, Provence-Alpes-Côte d'Azur
L'équipe CSA de notre siège basé à La Ciotat recherche un Administrateur système et réseau H/F en CDI. Vous aurez comme missions principales : PÉRIMÈTRE SYSTÈMES : • Exploitation quotidienne des environnements Linux et Windows • Traitement des incidents systèmes escaladés du N1 • Analyse des logs systèmes et applicatifs • Gestion des comptes, groupes et droits (AD, LDAP, RBAC) • Application des correctifs systèmes et mises à jour de sécurité • Gestion des machines virtuelles (création, modification, suppression) • Administration des hyperviseurs (VM, réseaux virtuels, datastores) • Supervision des systèmes via outils de supervision • Exécution des sauvegardes et restaurations standards (Veeam, etc...) • Gestion opérationnelle du stockage (NAS, SAN, volumes, LUN) • Renouvellement et déploiement des certificats • Exploitation des ressources Azure existantes • Traitement des tickets incidents, demandes et changements via l'outil ITSM PÉRIMÈTRE RÉSEAUX & SÉCURITÉ : • Exploitation quotidienne des infrastructures LAN et WIFI • Support et résolution des incidents de connectivité • Configuration et maintenance des équipements réseaux • Supervision des infrastructures réseaux • Exploitation des solutions SD-WAN • Administration des firewalls (CheckPoint, Palo Alto) • Gestion des règles de filtrage et des politiques existantes • Exploitation des VPN IPSEC et SSL • Administration des proxy servers • Exploitation des load balancers F5 (modifications simples) • Analyse des logs sécurité et réseau • Traitement des tickets incidents, demandes et changements L'équipe est composée d'environ 25 collaborateurs de niveau N2/N3 spécialisés dans les technologies d'infrastructure (réseau, système, base de données) et les environnements Modern Desktop (Intune, Autopilot, etc.). Les missions énumérées ci-dessus ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : uqza77s3mg
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Contactez +22951330333 Médium africain du retour d'affection rapide et efficace
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Facturation electronique 2026
- amortissements véhicule acheté avant début d'activité
- Offre FREELANCE qui devient CDIC quand l'ESN appelle
- Charges URSSAF : vous calculez sur le CA facturé ou encaissé ?
6323 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois