L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 403 résultats.
Offre d'emploi
Développeur Python (H/F)
Webnet
Publiée le
Python
34k-46k €
Lille, Hauts-de-France
Développeur Python (H/F) 📍 Localisation : Lille 📄 Type de contrat : CDI 💰 Rémunération : 34-46K Selon profil 🚀 Contexte Dans le cadre de notre développement, nous recherchons un(e) Développeur(se) Python disposant de solides compétences en DevOps et d’un intérêt marqué pour la data et/ou l’intelligence artificielle. Vous interviendrez sur des projets innovants à forte valeur ajoutée, mêlant développement, automatisation et exploitation de données. 🎯 Vos missions Concevoir, développer et maintenir des applications en Python Participer à la mise en place et à l’évolution des architectures techniques (CI/CD, cloud, conteneurisation) Automatiser les processus de déploiement et d’exploitation Collaborer avec les équipes data pour intégrer des modèles analytiques ou d’IA dans les applications Assurer la qualité du code (tests, revues, bonnes pratiques) Participer à la veille technologique (Python, DevOps, data, IA)
Mission freelance
Product Owner / Business Analyst - Agents IA & Rag
Sapiens Group
Publiée le
GenAI
MLOps
12 mois
500-520 €
Lille, Hauts-de-France
Responsabilités principales 1. Cadrage Animer des ateliers métiers (recueil des besoins, irritants, processus, scénarios) Formaliser les cas d’usage et définir les priorités Contribuer à la définition des KPI de succès 2. Gestion du backlog, MVP & priorisation Construire et maintenir le backlog produit (user stories, critères d’acceptation) Prioriser les évolutions en collaboration avec l’IA Delivery Lead et les sponsors métiers Préparer et animer les rituels Agile Garantir la clarté et la qualité des tickets 3. Design fonctionnel des copilots / agents IA Définir les scénarios d’usage et règles métier Encadrer les limites fonctionnelles et les contenus attendus Contribuer aux comportements “safe” (gestion des erreurs, incertitudes, hallucinations) 4. Coordination des prérequis Exprimer les besoins en bases de connaissances (périmètre, exclusions, fréquence de mise à jour) avec IA Ready Préparer les éléments nécessaires à Responsible IA (usage, périmètre, traçabilité fonctionnelle) Clarifier les besoins fonctionnels avec la DSI et les partenaires techniques 5. Recette fonctionnelle Définir le plan de tests (cas nominaux, limites, erreurs, scénarios sensibles) Participer au go/no-go avec l’IA Delivery Lead Suivre les anomalies et leur résolution 6. Industrialisation et amélioration continue Capitaliser sur les retours d’expérience (REX) Standardiser les bonnes pratiques (copilots, agents IA, RAG) Alimenter le backlog d’amélioration continue Compétences requises Compétences techniques Connaissance des solutions GenAI (copilots, agents IA, RAG) : mécanismes, limites, hallucinations Compréhension des principes MLOps (niveau usage/consommation) Bonne compréhension fonctionnelle du RAG Notions de structuration des données pour l’IA (Golden Data, référentiels) Compétences transversales Formation Bac +5 (ingénieur, data science, produit digital ou SI) Expérience en product management (backlog, MVP, priorisation) Maîtrise des méthodologies Agile (Scrum, Kanban) Expérience en AMOA : Recueil du besoin Animation d’ateliers Rédaction de spécifications fonctionnelles Modélisation de parcours utilisateurs Capacité à travailler en transverse (métiers, DSI, data, IA) Culture IA, data et processus métiers Compétences en recette fonctionnelle (tests, critères d’acceptation, gestion des anomalies) Livrables attendus Backlog produit (user stories + critères d’acceptation) Spécifications fonctionnelles et parcours utilisateurs Plan de tests, PV de recette et suivi des anomalies Supports de démonstration et d’adoption (guides, FAQ) Retours d’expérience (REX) et backlog d’amélioration continue
Mission freelance
Machine Learning Engineer – IA & MLOps
ESENCA
Publiée le
Github
LangChain
Python
1 an
Lille, Hauts-de-France
Contexte du poste Dans un environnement technologique en forte croissance, vous intervenez sur le développement et l’industrialisation de solutions d’Intelligence Artificielle. Les produits évoluent rapidement et nécessitent une forte capacité d’adaptation, de structuration et d’industrialisation des modèles. Objectif Concevoir, développer et déployer des solutions AI/ML robustes et scalables, tout en assurant leur intégration dans une chaîne CI/CD moderne et une plateforme MLOps structurée. Missions principalesDéveloppement & Industrialisation IA Concevoir et développer des modèles de Machine Learning et solutions basées sur les LLM Implémenter des composants AI/ML (fonctions, classes, tests automatisés) Participer à la conception d’architectures orientées Data & IA Assurer le passage du prototype à la production MLOps & Data Engineering Construire et maintenir les pipelines d’entraînement, d’évaluation et de déploiement Automatiser les workflows via Github Actions Mettre en œuvre les bonnes pratiques CI/CD et DevOps Assurer le monitoring, la performance et la scalabilité des modèles Qualité & Documentation Garantir la qualité du code (tests unitaires, intégration) Réaliser des revues de code Documenter les développements et configurations (Github / Gitbook) Assurer le suivi du cycle de vie complet des modèles (build & run) Environnement technique Python (impératif), Github Actions (impératif), LangChain (souhaitable), GCP, Kubernetes, Kafka, Terraform, bases SQL/NoSQL.
Mission freelance
SAP SD - 2 à 3 jours par semaine sur site // Anglais Courant
Intuition IT Solutions Ltd.
Publiée le
SAP
SAP S/4HANA
SAP SD
6 mois
Luxembourg
Dans le cadre de l’optimisation de ses processus commerciaux et de la gestion de ses conditions tarifaires, un groupe industriel international renforce son équipe SAP et recherche un consultant SAP SD expérimenté, avec une expertise particulière sur les mécanismes de pricing. Le consultant interviendra sur des projets d’évolution, de support et d’amélioration continue du module SAP SD dans un environnement complexe et multi-entités. Analyser les besoins métier liés à la gestion des prix, remises, conditions commerciales et accords clients. Concevoir, paramétrer et optimiser les schémas de pricing dans SAP SD. Participer aux projets d’évolution et de déploiement SAP (rollouts, harmonisation de processus). Assurer le support de niveau 2/3 sur les problématiques liées au pricing et à la facturation. Collaborer étroitement avec les équipes métiers (vente, finance, controlling) et les équipes techniques. Rédiger la documentation fonctionnelle et assurer le transfert de compétences aux équipes internes. Contribuer aux phases de tests (unitaires, intégration, UAT) et à la mise en production.
Offre d'emploi
Manager Plateformes et Outils Data - CDI
CAPEST conseils
Publiée le
Apache Kafka
Business Object
Cloud
Nouvelle-Aquitaine, France
Avant toute chose, avez vous bien noté qu'il s'agissait d'un poste à pourvoir en CDI ? Je suis désolée. Pas d'ouverture possible pour une mission. Dans le cadre du développement de ses activités Data, notre client recherche un Manager Plateformes et Outils Data. L’équipe est en charge des Plateformes et Outils DATA permettant l’exploitation de la donnée par les métiers, la BI et la Data Science, dans un environnement combinant solutions Cloud hybrid (souverain), et outils data spécialisés sont au cœur de la stratégie DATA. Nous recherchons un profil permettant le management et le pilotage des équipes et le Maintien en condition opérationnel des plateformes data. L’objectif du poste est de sécuriser le fonctionnement de l’équipe et de fluidifier les opérations, afin de permettre au Responsable du pôle de se concentrer sur les enjeux stratégiques et la transformation data. Vos missions Piloter l’activité de l’équipe Suivre les projets liés aux plateformes et outils data Coordonner les équipes, vis à vis des projets, de l'IT et les métiers Challenger et accompagner les équipes sur les sujets techniques Contribuer à l’amélioration continue des plateformes et des pratiques avoir une posture orienté capital humain respecter les engagements projets Environnement technologique Informatica- MDM Kafka Hadoop Business Objects Tableau Dataiku SAS environnements Onpremise et cloud Profil recherché Expérience confirmée dans les environnements Data / BI / plateformes data Passé technique fortement souhaité (data engineer, BI engineer, architecte data…) Bonne compréhension des architectures data, SaaS et cloud Capacité à dialoguer avec des profils techniques et métiers Leadership transversal et sens de l’organisation Ce poste s’adresse à un profil souhaitant évoluer vers un rôle de pilotage et de coordination au cœur de la transformation data. Poste en CDI.
Offre d'emploi
Data Engineer Azure
VISIAN
Publiée le
Azure
Azure Data Factory
Azure Synapse
2 ans
40k-60k €
400-550 €
Paris, France
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Azure avec une très bonne maîtrise d'Azure Data Factory et d'Azure Devops pour la CI/CD Nous recherchons un consultant capable de mettre en place les flux d'interface entre SAP Concur et les différentes applications Finance au travers de l'ETL Microsoft Azure Data Factory et d’en assurer le RUN/ CI/CD avec Azure Devops. Il est nécessaire d'avoir une capacité à être force de proposition et travailler en autonomie.
Mission freelance
Un Expert Dynatrace sur Nanterre
Almatek
Publiée le
Big Data
Dynatrace
Hadoop
6 mois
Nanterre, Île-de-France
Almatek recherche pour un de ses clients, Un Expert Dynatrace sur Nanterre Profil recherché : Expert Dynatrace Activités : Profil Sénior en capacité de transférer la connaissance, de délivrer rapidement Supervision, Monitoring de kub, openshift, big data , TDP (trunk data platform) qui vise a remplacer distribution Haddop rachetée par Hortonworks Expertise dans la configuration et l'utilisation de l'outil Dynatrace. Localisation : Nanterre Démarrage : 06 avril Durée : 6 mois R Almatek recherche pour un de ses clients, Un Expert Dynatrace sur Nanterre Profil recherché : Expert Dynatrace Activités : Profil Sénior en capacité de transférer la connaissance, de délivrer rapidement Supervision, Monitoring de kub, openshift, big data , TDP (trunk data platform) qui vise a remplacer distribution Haddop rachetée par Hortonworks Expertise dans la configuration et l'utilisation de l'outil Dynatrace. Localisation : Nanterre Démarrage : 06 avril Durée : 6 mois R
Offre d'emploi
Développeur Data GCP / BI (H/F)
CELAD
Publiée le
45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Développeur Data pour intervenir chez un de nos clients, dans le secteur bancaire. Au quotidien, tu vas : Participer à la migration des rapports Power BI Transformer les flux existants (SSIS) vers des solutions modernes sur GCP Développer et orchestrer les pipelines de données avec Python, dbt et Composer Assurer la fiabilité, la performance et la stabilité des traitements Travailler en lien étroit avec les équipes métiers pour bien comprendre les besoins Contribuer à l'amélioration continue des pratiques et de la delivery data
Mission freelance
Développeur Data GCP/BI (H/F)
CELAD
Publiée le
1 an
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Développeur Data pour intervenir chez un de nos clients, dans le secteur bancaire. Au quotidien, tu vas : Participer à la migration des rapports Power BI Transformer les flux existants (SSIS) vers des solutions modernes sur GCP Développer et orchestrer les pipelines de données avec Python, dbt et Composer Assurer la fiabilité, la performance et la stabilité des traitements Travailler en lien étroit avec les équipes métiers pour bien comprendre les besoins Contribuer à l’amélioration continue des pratiques et de la delivery data
Mission freelance
CONSULTANT(E) MOA BI EXPERIMENTE(E)
PROPULSE IT
Publiée le
BI
MOA
24 mois
325-650 €
Paris, France
Descriptif détaillé de la mission : ➢ Identifier, analyser et comprendre les besoins métier, problématiques à résoudre et opportunités à concrétiser. ➢ Conseiller et assister les équipes métier dans la priorisation, la formalisation des besoins et de la recette, les problématiques et les opportunités. Être le référent du métier. ➢ Coordonner les parties prenantes métier et techniques, et accompagner le changement associé (y compris la transition en RUN). ➢ Identifier et proposer, en étroite collaboration avec les équipes Solutions et Business Applications, les solutions data ou reporting qui permettent d'y répondre. ➢ S'assurer que le delivery correspond aux besoins du métier ➢ Contribuer à la documentation de la solution. ➢ Être force de proposition sur les opportunités d'améliorations des solutions. ▪ Environnement technique de la mission : ➢ SSIS / SQL SERVER ➢ IBM COGNOS ➢ TABLEAU ➢ AZURE ▪ Date début de mission : ASAP ▪ Durée estimée de la mission : 3 mois (renouvelables)
Offre d'alternance
Développeur Python - Finance de Marchés (H/F)
█ █ █ █ █ █ █
Publiée le
CI/CD
FO
Linux
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
[FBO] Product Owner Data sur des données RH - Saint Denis - 1419
ISUPPLIER
Publiée le
9 mois
300-430 €
Saint-Denis, Île-de-France
Contexte de la mission Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP •
Mission freelance
101448/Architecte Data IA Apache Kafka,Cloud Architecture Nantes
WorldWide People
Publiée le
Apache Kafka
12 mois
400-620 €
Nantes, Pays de la Loire
Architecte Data IA Apache Kafka,Cloud Architecture Nantes . Architecture au sein d'une nouvelle plateforme Data IA chez notre client. La mission consiste : - de par son expertise à accompagner le client dans cette transition technologique - à conseiller sur la nouvelle nouvelle architecture cloud-native et orienté self-service en intégrant des solutions modernes telles que Kafka, Iceberg, Trino et S3. - à accompagner l'équipe en charge du socle service data pour challenger les choix d'architecture autour des solutions d'observabilité offertes par OpenMetadata, SODA et/ou Great Expectations par exemple. - à participer à la conception d'architectures robustes et évolutives, tout en garantissant la conformité RGPD et la sécurité des données. - à travailler en étroite collaboration avec les Product Owners, Tech Lead, Data Stewards et DevOps pour assurer l'intégration harmonieuse des nouveaux produits. Qualifications demandées : Apache Kafka,Cloud Architecture.
Mission freelance
Consultant DATA/ BI
HAYS France
Publiée le
Azure Data Factory
Azure Synapse
Microsoft Power BI
5 mois
Obernai, Grand Est
Nous recherchons un Consultant Data / BI capable d’intervenir sur un environnement mêlant Enterprise Architecture , Azure Data Platform , et Power BI . L’objectif : adapter un écosystème LeanIX + Data Platform à une nouvelle organisation interne, tout en assurant la mise à jour des flux, du modèle de données et des rapports analytiques. Vos responsabilités Dans le cadre de cette mission, vous interviendrez sur les sujets suivants : LeanIX Adapter la configuration LeanIX pour refléter la nouvelle organisation. Collaborer avec l’équipe Enterprise Architecture. Azure Data Platform Ajuster et optimiser les flux de données (Azure Data Factory). Adapter le modèle de données dans Azure Synapse Dedicated SQL Pool . Maintenir et faire évoluer une Azure Function en Python . Participer à des déploiements via Bicep . Power BI Mettre à jour les semantic models. Ajuster et optimiser les rapports existants. Documentation & collaboration Produire la documentation en anglais. Participer à une évaluation préliminaire d’ ARIS comme alternative potentielle.
Offre d'emploi
Développeur/Data Engineer Python & Lambda AWS
OBJECTWARE
Publiée le
Python
3 ans
40k-50k €
260-400 €
Île-de-France, France
Mission En qualité de développeur python / Data Engineer, votre rôle et vos missions consistent à : * Participer à la conception/développement sur le projet Portfolio Clarity pour NIM (python sur lambdas AWS) * Réaliser les tests unitaires et d'intégration * Revue du code et amélioration de l'architecture applicative existante * Documenter les réalisations * Intégrer les développements à la chaine de CI/CD La bonne réalisation de la prestation exige les compétences suivantes : * Maitrise des développements et lntégration python * Connaissance et utilisation des outils de développements (Visual Studio Code ou autre IDE) * Connaissance et utilisation des outils d'intégration et de tests continus (Bitucket/git, Jenkins, junit, XLDeploy, XLRelease) * Connaissance et utilisation des outils collaboratifs (Confluence, Jira) Compétences personnelles : • Appétence technique • Structuré, bon esprit d’équipe, autonomie, curiosité • Capacité d’écoute, de synthèse. * Anglais professionnel
Mission freelance
POT9028 - Un architecte Data - Snowflake sur Massy
Almatek
Publiée le
SQL
6 mois
Massy, Île-de-France
ALMATEK recherche pour l'un de ses clients, Un architecte Data - Snowflake sur Massy CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Languages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3403 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois