Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 780 résultats.
Mission freelance
Développeur Borland/Delphi & Python
Cherry Pick
Publiée le
Delphi
Figma
12 mois
Nice, Provence-Alpes-Côte d'Azur
Recherche développeur(se) freelance Borland/Delphi & Python – Projet MedTech / Bien- Être innovant (IA, Biorésonance, Biofeedback) Je recherche un(e) développeur(se) freelance pour poursuivre l’intégration d’un nouveau logiciel de pilotage d’appareil de Biorésonance & Biofeedback avec modules IA, à partir de maquettes Figma existantes. Missions : Intégration UI depuis Figma Développement en Borland/Delphi (cœur logiciel) Modules en Python (traitements, automatisation, IA) Communication avec hardware (USB, Bluetooth…) Collaboration freelance avec possibilité de former un collaborateur interne pour la maintenance et l’évolution du logiciel. Projet sérieux, déjà bien avancé (hardware + design + concept validé).
Offre d'emploi
Data Analyst
CAT-AMANIA
Publiée le
Business Object
Qlik Sense
40k-61k €
Maisons-Alfort, Île-de-France
Element de contexte et organisation : Bpifrance a lancé un large programme de transformation autour des données et de l’Intelligence Artificielle dans un contexte de transformation globale de la DSI. Le programme, piloté par le Chief Data Officer (CDO) et sous sponsoring de la Direction Générale, comporte plusieurs objectifs, dont celui de la mise en place de la plateforme Data & IA, qui a vocation à devenir le cœur du SI. En parallèle, le chantier de transformation Cloud en cours induit d’importantes adhérences avec les travaux d’industrialisation de la plateforme Data & IA. L'organisation projet est réalisée avec SAFE. Objectif poursuivi pour cette mission : La mission porte sur la réalisation du socle Financement et contentieux dont il s'agira d'assurer un rôle de Data Analyst avec pour objectif de: - spécifier les besoins en terme de données Financement et Contentieux permettant de servir les usages bancaires des filières : -- Crédit Bail équipement, -- Crédit Immobilier, énergie & environnement, -- Court terme, -- Immatériel - modéliser les entités permettant de représenter les données des métiers du Financement et du Contentieux - spécifier les Data Product nécessaire pour couvrir : -- les besoins des filières (Reporting opérationnels, Agents opérationnels, suivi d'activité, reporting conventionnels,...) -- les besoins de l'équipe chargée d'exploiter le socle Financement et Contentieux (Reporting transverses, études de prospection, cross-selling, ...) - définir et contrôler la Qualité des données véhiculées au sein du socle - réaliser les recettes des données collectées Compétences métier souhaitables : Mission(s) réussie(s) dans le domaine Bancaire dans le cadre de reportings de Financement. Bonne connaissance des métiers bancaires (Crédit, crédit bail, court terme, ...) Très bonne connaissance des données bancaires du financement Forte appétence pour la donnée La connaissance de l'écosystème (notamment le Legacy) serait un plus Liste des technologies : Le comptoir de données est réalisé sur le Cloud AWS. Outil de restitution de la donnée : Business Objects, QlikSense Bon niveau en SQL
Mission freelance
Juriste confirmé en droit numérique
Codezys
Publiée le
ISO 27001
ISO 27005
RGPD
12 mois
Toulouse, Occitanie
Contexte de la mission Assister et conseiller les chefs de projets informatiques dans l'identification des données à caractères personnels, des traitements associés, documenter les livrables RGPD selon la méthodologie officielle en lien avec l'expert en sécurité des systèmes d'information, dans le respect de la méthode du groupe bancaire concerné, définir et recetter les exigences, identifier / évaluer les risques en matière de protection des données et proposer des actions de remédiation. Les missions incluent également : Rédiger les analyses d'impact relatives à la protection des données (AIPD / PIA) en collaboration avec les départements métiers, les délégués à la protection des données (DPO), les filières juridiques / achats et la conformité du groupe. Contribuer à la sensibilisation des collaborateurs au quotidien sur la vie privée, notamment en matière de RGPD, cookies et traceurs, usages des données, intelligence artificielle, etc. Effectuer une veille réglementaire et technique en matière de protection des données. Assurer le support en cas de violation de données, de demandes des autorités de contrôle, d'exercices de droits, et coordonner le support avec les plateformes internes et la direction dédiée à la protection des données du groupe.
Mission freelance
Chef de projet SI Industriel
ALLEGIS GROUP
Publiée le
Infrastructure
IoT
Réseaux
3 mois
400-690 €
Corbeil-Essonnes, Île-de-France
Projet : Déploiement d’ usines 4.0 : production connectée, intelligente et intégrée, combinant IoT , IA , Cloud et systèmes physiques. Projet inscrit dans la réindustrialisation et l’ extension de sites industriels . Objectif : Assurer le pilotage bout‑en‑bout des projets de déploiement : coûts , délais , qualité , coordination transverse de l’ensemble des lots techniques et des parties prenantes . Le pool est le garant du respect des engagements du programme. Responsabilités Piloter un ou plusieurs projets complexes à forts enjeux Gérer budget , planning , risques au niveau macro Assurer la communication et le reporting aux instances de direction Coordonner transverse tous les lots du programme Être le point d’ancrage DSI sur le projet
Offre d'emploi
Data engineer (H/F)
Amiltone
Publiée le
35k-40k €
Lille, Hauts-de-France
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Offre d'emploi
Tech Lead Angular / Python - H/F
DAVRICOURT
Publiée le
Angular
Python
45k-50k €
Pau, Nouvelle-Aquitaine
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) tech lead angular/python pour l'un de nos clients du secteur aéronautique. Vous interviendrez sur le site client situé à proximité de Pau (64). À ce titre, vos missions quotidiennes seront les suivantes : - Définir et valider l'architecture logicielle globale du projet ; - Garantir la cohérence technique entre les différents modules applicatifs ; - Challenger et valider les solutions techniques liées à l'IA générative ; - Participer activement au développement des composants critiques du projet ; - Intervenir sur une stack comprenant : Front-end : Angular et Back-end : Python ; - Mettre en place et maintenir les bonnes pratiques de développement (clean code, design patterns, sécurité, performances) ; - Encadrer et accompagner les développeurs de l'équipe ; - Prendre en charge l'analyse technique et la résolution de problèmes complexes ; - Réaliser des revues de code et garantir le respect des standards qualité ; - Assurer un rôle de référent technique auprès des équipes internes et externes ; - Collaborer étroitement avec les équipes basées en Inde : coordination des développements, suivi des travaux, synchronisation technique ; - Mettre en place les processus de tests automatisés et d'intégration continue. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Mission freelance
Data Scientist Senior
NEOLYNK
Publiée le
Python
SQL
3 mois
400-500 €
Lille, Hauts-de-France
Responsabilités principales Concevoir et déployer des features IA Construire des pipelines de traitement de données Industrialiser et monitorer les applications / services (latence, coût, taux de réponse, satisfaction utilisateur). Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Machine learning / Deep learning Traitement de données non structurées: PDF/Images Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques.
Mission freelance
Développeur Python devops AWS ANGLAIS 490 e
BI SOLUTIONS
Publiée le
DevOps
Python
3 ans
400-490 €
Île-de-France, France
Développeur Python devops AWS ANGLAIS 490 e Rôles et responsabilités En tant que membre de notre squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donne e ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA 490 e
Offre d'emploi
Chef de projet Data (H/F)
CGI
Publiée le
GraphQL
Large Language Model (LLM)
Neo4j
1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre de projets innovants autour de la valorisation de la donnée, nous recherchons un Chef de Projet Data capable de piloter des initiatives basées sur des modèles de données orientés graph (Graph Data Model) , intégrant des technologies comme Neo4j , et potentiellement des briques IA / LLM . L’objectif est de structurer, piloter et sécuriser la delivery de projets data à forte valeur métier. Piloter des projets Data autour de modèles Graph Coordonner les équipes Data (Data Engineers, Data Scientists, Architectes, Dev) Superviser la conception de modèles de données orientés graph Accompagner l’implémentation de solutions type Neo4j Encadrer les phases de cadrage, POC, industrialisation et mise en production Piloter l’intégration éventuelle de briques IA / LLM Assurer la gouvernance des données (qualité, sécurité, conformité) Suivre planning, budget, risques et reporting
Offre d'emploi
Data Analyst Sénior
Inventiv IT
Publiée le
Batch
BigQuery
ClickHouse
1 an
Casablanca, Casablanca-Settat, Maroc
Mission Principale Rattaché au pôle Data/IA Fabric, votre objectif est de résoudre les divergences de données entre les différents environnements, notamment le On-Premise et le Cloud. Vous définissez les standards de mesure pour une zone internationale multi-pays et jouez un rôle moteur dans la transition vers une architecture unique, robuste et fiable. Responsabilités Audit et Réconciliation : Analyser les flux provenant de Firebase, Batch et Clickhouse pour identifier l'origine des écarts de KPIs, comme le nombre d'utilisateurs actifs, entre BigQuery et Clickhouse. Standardisation des Métriques : Définir des règles de gestion communes et des mappings JSON/HTTPS unifiés pour garantir la cohérence des données, quel que soit le canal d'émission, tel que App Kiph ou Sent Apk. Optimisation de l'Architecture : Collaborer avec les ingénieurs pour migrer progressivement les traitements vers une architecture cible, avec une préférence pour GCP et BigQuery, tout en assurant l'intégrité de la donnée historique. Architecture cible robuste Gouvernance et Qualité : Mettre en place des dashboards de monitoring de la qualité de données et instaurer des alertes sur les seuils de divergence entre les sorties. Mise en place d'une modern Data Platform robuste Compétences Techniques Requises Maîtrise SQL Expert : Capacité à requêter et optimiser des volumes massifs sur BigQuery (GCP) et Clickhouse. Stack Data Mobile : Expérience significative avec l'écosystème Firebase et les outils de push notification comme Batch. Ingestion & Formats : Excellente compréhension des flux JSON/HTTPS et des problématiques de collecte de données via SDK ou APK. Modélisation : Maîtrise des principes d'ETL/ELT et de la construction de modèles de données robustes (la connaissance de dbt est un plus). Profil Recherché Formation : Diplôme d'Ingénieur ou Master en Data/Statistiques. Expérience : 5 ans minimum Soft Skills : Esprit analytique poussé, capacité à vulgariser des problématiques techniques complexes auprès d'interlocuteurs métiers et excellente communication pour coordonner plusieurs pays. L’indispensable INVENTIV IT Expérience avérée sur des projets de Data Platform & Data Market Place. Capacité à évoluer dans un contexte technologique mature incluant Databricks, Snowflake, Power BI et l'IA. Poste basé à Casablanca, Maroc Mode : Forfait/Régie Rythme : Hybride/à distance Profil sénior : 5 ans d’expérience minimum
Mission freelance
Senior DevOps - ML Platform
Atlas Connect
Publiée le
Administration linux
AWS Cloud
AWS CloudFormation
12 mois
600-710 €
Île-de-France, France
Vous rejoindrez l’équipe ML Platform , dont la mission est d’améliorer la productivité des chercheurs en machine learning en développant des bibliothèques, services, outils et bonnes pratiques, tout en garantissant une mise en production robuste des modèles ML à grande échelle. L’équipe est composée : d’ingénieurs travaillant sur des projets transverses, et de profils accompagnant les équipes fonctionnelles dans leur parcours ML. Vous travaillerez également en étroite collaboration avec le ML Lab , une équipe de recherche académique nécessitant des outils et infrastructures dédiés, distincts de l’infrastructure principale, afin de : accéder librement aux technologies open source de pointe, collaborer avec des partenaires externes, expérimenter rapidement à grande échelle. Mission En tant que Senior DevOps Engineer au sein de l’équipe ML Platform, vous mettrez à profit votre solide background en ingénierie logicielle, votre maîtrise de Python et votre expérience des environnements cloud pour faciliter le travail quotidien du ML Lab sur , tout en assurant les interconnexions nécessaires avec l’infrastructure principale, majoritairement basée sur AWS . Responsabilités principales Configurer et maintenir l’environnement cloud , notamment pour l’accès GPU du ML Lab Mettre en place des mécanismes FinOps et des protections minimales contre les erreurs humaines (“fat fingers”) Optimiser les images Docker afin de réduire les temps de cold start Implémenter et maintenir des systèmes de monitoring pour l’entraînement des modèles ML Contribuer ponctuellement aux projets transverses de l’équipe ML Platform sur AWS (CI/CD, outillage cloud, services communs pour les chercheurs) Promouvoir et implémenter des processus d’ automatisation Renforcer la sécurité via des évaluations de vulnérabilités, la gestion des risques et le déploiement de mesures de cybersécurité adaptées
Offre d'emploi
Développeur - Secteur Industrie
OCTOGONE
Publiée le
BI
Preuve de concept (POC)
2 ans
Hauts-de-Seine, France
Objectif : Accélérer les projets et augmenter la valeur métier des solutions en explorant et en prototypant de nouvelles technologies (IA, Data/BI) et méthodes (Agilité). Attendus : Des prototypes et "Proof of Concepts" (PoC), des tableaux de bord décisionnels (Power BI), un accompagnement (coaching) des équipes à l'agilité, et des études de veille technologique. Développer des prototypes (PoC) et des produits minimums viables (MVP). Mettre en oeuvre des solutions logicielles en respectant les bonnes pratiques de code et les standards client. Rédiger les tests unitaires et la documentation technique associée. Participer à la remise en conformité d'applications Shadow IT.
Mission freelance
GenAI Agent Developer
Signe +
Publiée le
Python
12 mois
400-590 €
Paris, France
Contexte Mission stratégique au sein du Cloud Center of Excellence (CCOE) Data & AI Foundations visant à industrialiser le développement d’agents d’IA générative pour une plateforme utilisée à l’échelle internationale. L’objectif est de transformer un SDK existant en produit industrialisé, sécurisé et déployable dans des environnements sensibles et hautement sécurisés. Besoin GenAI agent developer Objectifs de la mission Prendre en main le SDK existant et en assurer la maîtrise technique Industrialiser le SDK pour le rendre scalable, maintenable et déployable à grande échelle Intégrer les exigences enterprise : sécurité, identité, observabilité et exploitabilité en production Favoriser l’adoption du SDK par les équipes IA internes Besoin GenAI agent developer Missions principales Développement et évolution du SDK pour agents GenAI Implémentation des mécanismes de sécurité et de gestion des identités Intégration de l’observabilité et des pipelines de déploiement Documentation complète technique et fonctionnelle Support des équipes IA pour l’intégration du SDK dans leurs produits Besoin GenAI agent developer Compétences requises Python LangGraph, LangChain, MLflow Expérience industrialisation d’agents IA et productisation Maîtrise des protocoles d’identité et sécurité (OIDC, token forwarding, etc.) Expérience environnements sécurisés / régulés Bonne maîtrise CI/CD et cycle de vie logiciel Anglais professionnel Besoin GenAI agent developer Livrables attendus Versions industrialisées du SDK Documentation technique complète et blueprint d’architecture Plan d’enablement et support à l’adoption intern
Mission freelance
Chef de Projet IT RUN & Évolutif Multi-ERP H/F
OUICODING
Publiée le
1 mois
420-900 €
Courbevoie, Île-de-France
Vous évoluerez dans un contexte à forts enjeux opérationnels, nécessitant capacité d'analyse, vision transverse et excellence en coordination. Les principales missions à réaliser sont : Gestion du RUN & Maintenance : -Garantir la stabilité et la performance des ERP en pilotant les corrections, les flux data et la maintenance applicative. -Assurer la continuité de service dans un environnement exigeant. -Contribuer activement au projet de migration ERP, intégrant des leviers d'automatisation et d'IA dans une logique d'optimisation et de modernisation du SI. Analyse et Cadrage : -Traduire les besoins des trois maisons en spécifications claires et exploitables (fonctionnelles et techniques). -Sécuriser le cadrage et anticiper les impacts transverses. Priorisation et Arbitrage : -Gérer un backlog dynamique, arbitrer entre urgences business et contraintes techniques. -Mettre en oeuvre une priorisation pragmatique orientée valeur. Interface Multi-acteurs : Être l'interlocuteur clé entre : -Directions métiers (Marketing, Ventes, Finance) -Équipes de développement internes -Partenaires et intégrateurs -Faciliter les échanges, fluidifier les décisions et sécuriser l'avancement. Pilotage des Releases : -Coordonner les mises en production sur les 3 ERP. -Garantir la non-régression et sécuriser les Go/No-Go techniques et métiers. Pilotage des outils & gouvernance -Assurer un pilotage rigoureux via Jira. -Structurer la documentation et capitaliser dans Confluence. -Produire des KPIs pertinents et animer les comités de suivi.
Offre d'emploi
DevOps ( Cloud / Kafka / APIGEE)
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Nantes, Pays de la Loire
Contexte de la mission Améliorer l'industrialisation, la sécurisation et la supervision des plateformes d'échanges : KAFKA, APIGEE, Bucket GCP, SFTP. Travailler sur la résilience d'APIGEE/KAFKA/SFTP ainsi que les sujets de migration KAFKA (Move 2Paris) et sur les sujets autour de l'IA avec APIGEE (MCP Server), autre plateforme Google Kafka. Un nouveau périmètre à intégrer dans l'équipe Scripts, code Terraform pour ci/cd, Procédures explicatives Astreintes et Intervention à prevoir Objectifs et livrables lCoud Provider Public (idéalement GCP) Scripting (Shell, Python) Terraform, Git , Argo, Kubernetes, Ansible KAFKA, APIGEE, Bucket GCP, SFTP, Cloudflare
Offre d'emploi
Machine Learning/ML Engineer
WINSIDE Technology
Publiée le
Python
3 ans
40k-52k €
400-540 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e ML Engineer confirmé.e pour une grande entreprise sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans à minima en tant ML Engineer. tu es expert.e en conception et industrialisation de modèles. tu sais automatiser les entraînements et les déploiements de modèles. tu as 5 ans d'expérience professionnelle en Python. tu as des bases solides sur MLflow ou Kubeflow ou Vertex. tu es familier avec l'environnement GCP et ses services. tu as des excellentes connaissances DevOps et de bases de données SQL et NoSQL. Idéalement tu as eu une expérience dans le retail. Les bénéfices du poste : 🤖 Un terrain de jeu technologique de pointe Le poste offre une exposition complète aux technologies les plus recherchées du marché : LLM, RAG, MLOps, GCP, Kubernetes — avec une ownership réelle du cycle de vie complet des modèles, du prototype à la production. 🚀 Un environnement d'innovation structuré L'entreprise combine l'agilité (Scrum/SAFe) d'une culture innovation avec la solidité d'un grand groupe, offrant ainsi stabilité et dynamisme pour progresser vite. Tes missions : Concevoir, développer et industrialiser des modèles de Machine Learning et d'IA, de la phase de prototypage jusqu'à la mise en production. Construire et maintenir les pipelines de données et de MLOps pour automatiser l'entraînement, l'évaluation et le déploiement des modèles. Participer activement à l'architecture et au développement des produits du domaine, notamment la plateforme MLOps et les solutions basées sur les LLM. Assurer la scalabilité, la robustesse et la performance des solutions IA déployées, en collaboration avec les équipes Ops et Data. Garantir la qualité du code et des modèles via des revues, des tests automatisés (unitaires, intégration) et des stratégies de monitoring. Participer à l'élaboration de la CI/CD selon les pratiques DevOps et MLOps sur la Google Cloud Platform et Github. Assurer une documentation complète des modèles, des pipelines et des configurations au sein du référentiel documentaire (Github / Gitbook). Être responsable du cycle de vie complet des modèles (build et run), incluant le monitoring et la maintenance en production. Démarrage : mi-mars, début avril. TT: 3 jours par semaine. Durée : 3 ans. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
780 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois