Trouvez votre prochaine mission.

Votre recherche renvoie 585 résultats.
Freelance

Mission freelance
Développeur Fullstack Java/Angular H/F

OUICODING
Publiée le

1 mois
420-500 €
Paris, Île-de-France
Le profil Fullstack Java / Angular intégrera une équipe de développement interne (développeurs + pilotage projet + AMOA). Missions principales : -Développer et maintenir l'interface Frontend en Angular (18+) selon les standards d'architecture et bonnes pratiques -Participer aux développements Backend Java/Spring Boot (microservices, flux métier) -Participer aux revues de code et à la qualité logicielle -Réaliser tests unitaires, intégration et éventuellement E2E -Contribuer à la conception technique (interfaces, modèles, logs, modes dégradés...) -Utiliser des outils d'IA générative pour accélérer/fiabiliser le dev (code, tests, doc), dans le respect des standards internes -Participer à l'analyse des besoins et à la préparation des développements -Amélioration continue (outillage, performance, maintenabilité) -Participer aux choix d'architecture et réflexions techniques -Contribuer à la documentation technique (MEP, PTI/PTE, specs, etc.) -Utiliser/contribuer aux chaînes DevOps (GitLab CI, SonarQube, Artifactory) -Collaboration avec UX/UI -Participation aux cérémonies agiles (Scrum) Livrables (exemples) : -Développement et livraison de fonctionnalités (merge) -Reporting d'avancement (Design/Build/Test) -Contribution à la documentation technique -Déploiements en environnements de tests / MES -Support recette -Contribution au dossier de MEP -Appui pilote / ouverture de service / analyse anomalies
Freelance

Mission freelance
Product Director Ecommerce et API

ODHCOM - FREELANCEREPUBLIK
Publiée le
API
E-commerce
Product management

6 mois
Issy-les-Moulineaux, Île-de-France
Grand compte / Issy les moulineaux Présence : 1 mardi sur site par semaine. Contexte : L’équipe travaille sur des API de distribution et une application intégrée à ChatGPT, avec un service destiné aux utilisateurs finaux et un composant front. Le rôle consiste à piloter le produit technique et stratégique lié à ces API et à l’IA, tout en assurant la coordination et la supervision de l’équipe PO. Objectifs de la mission : Gérer et coordonner les Product Owners de l’équipe Définir la roadmap produit et prioriser les fonctionnalités. Superviser le développement technique des API et de l’application front. Appliquer une approche produit avancée, notamment sur les modèles MCP, SDK et protocoles API.
Freelance

Mission freelance
POT8952 - Un Data Scientist Sénior sur Massy

Almatek
Publiée le
SQL

6 mois
100-390 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients,Un Data Scientist Sénior sur Massy. DESCRIPTION DE LA MISSION. Au sein du pôle Data Science Customer, vous rejoignez une feature team dédiée à l'un des piliers stratégiques de l’entreprise :le moteur de recherche de produit. Votre mission est de transformer l'intention d'achat de millions de clients en une expérience fluide, pertinente et performante. Vous serez le référent technique sur l'évolution de notre moteur de recherche, en passant d'une approche textuelle classique à une expérience de recherche sémantique et personnalisée. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. - En intervenant à toutes les étapes des projets, vous pourrez : - Stratégie Search : Collaborer avec les Product Managers pour définir la roadmap de pertinence (recherche textuelle, sémantique, hybride). - Architecture Vectorielle : Concevoir et déployer des solutions de Vector Search (Embeddings, ANN) pour capturer l'intention client au-delà des mots-clés. - Optimisation du Ranking : Implémenter et itérer sur des modèles de Learning to Rank (LTR) et de Reranking pour arbitrer entre pertinence métier, mix marge et préférences utilisateur. -Évaluation de la pertinence : Mettre en place des protocoles d'A/B testing rigoureux et des frameworks d'évaluation (nDCG, MRR, Click-through rate). -Expertise Elasticsearch : Optimiser les configurations, les analyseurs et les requêtes complexes pour garantir des performances temps réel à grande échelle. -Mentorat : Guider et élever le niveau technique des data scientists juniors sur les thématiques de NLP et de Search.? Compétences techniques clés : - Moteurs de recherche : Maîtrise avancée d'Elasticsearch, incluant le tuning de pertinence et la gestion des index. - Recherche Vectorielle : Expérience concrète dans l'utilisation de bases de données vectorielles et de modèles d'embedding. - Reranking : Solide expérience dans la conception de modèles de reranking (XGBoost/LightGBM pour le LTR, ou approches Deep Learning). - Stack Data : Maîtrise de Python, SQL et de l'écosystème GCP (BigQuery, Vertex AI). - Les petits plus - Expérience sur des problématiques de Personalized Search (intégration des signaux utilisateurs temps réel). - Contributions à des projets Open Source dans le domaine du Search ou du NLP. - Connaissance des problématiques de recherche multilingue ou de traitement des synonymes par IA. - Notre environnement technique - Python, SQL, Terraform, Docker, Gitlab, Jenkins, GCP (Cloud Composer / Airflow, Cloudrun, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage) Votre séniorité vous permet de naviguer entre la rigueur scientifique et les impératifs business du e-commerce. Vous savez vulgariser des concepts de "Neural Search" auprès d'interlocuteurs non-techniques tout en garantissant une qualité de code (Clean Code, CI/CD) irréprochable.
Freelance

Mission freelance
Data Manager / Data Steward

Codezys
Publiée le
Data management
Data quality
Lean

12 mois
Rennes, Bretagne
Nous recherchons un profil capable de renforcer notre équipe de Data Management afin de soutenir la réalisation de nos engagements concernant nos offres de services dans ce domaine. Cette personne accompagnera également nos parties prenantes métier dans leurs projets liés à la gestion des données. ENJEUX La mission vise à garantir le succès des initiatives métier portant sur le catalogage des données et leur nettoyage, en particulier lors de projets de transformation majeurs. OBJECTIFS Contribuer à l’enrichissement et au renforcement de notre offre de services en Data Management (méthodologies, outils, formations, accompagnement au changement…) Faciliter la collaboration entre les équipes (Data, IT, architecture, métier) autour de la gestion des données (catalogage, qualité, documentation, sécurité, modélisation…) Professionnaliser et accompagner la montée en compétences des Data Owners, Data Stewards et Data Custodians concernant leurs rôles liés à la qualité des données Participer à l’amélioration de la culture Data au sein de l’organisation Le périmètre technique englobe : Data Gouvernance Data Management Data Quality DAMAS Méthodologies Lean et Agile Outil Blueway MyData Catalogue Tout le système d’information, incluant SIO et legacy Intelligence artificielle Objectifs et livrables Les prestations attendues, non exhaustives, comprennent : Cataloguage de données : réalisation de projets de documentation métier et technique, intégration dans l’outil My Data Catalog Data Quality Management : audits de qualité, propositions de plans de remédiation Accompagnement au changement, formation et sensibilisation Data : formation à l’utilisation de My Data Catalog, accompagnement individuel ou collectif (1 à 1, ateliers) Communication : création et diffusion de newsletters, publications sur l’intranet Participation à des réunions de communauté : Data Owners, Data Stewards, Data Custodians Les livrables attendus comprennent : Les catalogues de données dans l’outil My Data Catalog Les résultats des audits de qualité des données Supports de formation sur les outils et méthodologies de Data Management Newsletter ou autres publications destinées à la communication interne
Freelance
CDI

Offre d'emploi
Juriste confirmé en droit numérique sur Toulpouse

EterniTech
Publiée le
ISO 27001
ISO 27005

3 mois
Toulouse, Occitanie
Je recherche pour un de mes clients un Juriste confirmé en droit numérique sur Toulouse Balma Contexte / Objectifs Recherche Juriste Confirmé en Droit Numérique pour - Assister et conseiller les chefs de projets Informatiques dans l'identification des données à caractères personnelles, des traitements associés, documenter les livrables RGPD selon la méthodologie CNIL en lien avec l'expert Sécurité des Systèmes d'Information dans le respect de la méthode Groupe BPCE, définir et recetter les exigences, identifier / évaluer les risques en matière de protection des données et proposer des actions de remédiation. - rédiger les AIPD /PIA en lien avec les Métiers et les DPO concernés, les filières Juridiques/Achat, Conformité du Groupe mais également pour - Contribuer à la sensibilisation des collaborateurs au quotidien en matière de Privacy (RGPD, Cookies et Traceurs, usages Data et IA...) des systèmes d'information. - Effectuer une veille en matière de Protection des données - Assurer le support en cas de violations de données, demandes de la CNIL et d'exercices de droits et en assurer le support auprès des plateformes Métiers de BPCE SI et en lien avec la Direction Protection des Données du Groupe Au sein d'un Centre de service Sécurité Métier ( CESM) rattaché à l'équipe Privacy & Control, vous intervenez en support des plateformes Métiers de BPCE-SI (Distribution /Data, bancarisation et épargne, Paiements, Financements, Finances et Risques, Assurances, Solutions Transverses) éditeur informatique des Banques Populaires, Caisses d'Epargne, BPCE Financement, BPCE Factor, BPCE Lease, CEGC et BPCE Assurances. Vous êtes autonome rigoureux, pédagogue, communicant, dynamique et proactif. Expertises spécifiques Compétences Juridiques Requises / Certification DPO CNIL indispensable Compétences informatiques : MOOC ANSSI, Architecture des SI, Iso 27001/27005/27701 Connaissances des métiers Banque et Assurances requises Connaissances Méthode Projet Agile
Freelance
CDI

Offre d'emploi
Ingénieur en automatisation (H/F)

CITECH
Publiée le
Automatisation

6 mois
40k-50k €
300-400 €
Pacy-sur-Eure, Normandie
CITECH recrute ! 👌 ✨ Vous souhaitez prendre part à un projet de modernisation ambitieux au sein d’un grand groupe industriel ? Nous avons LA mission pour vous ! Nous recherchons un Ingénieur en automatisation (H/F). 👉 Vous intégrerez l’équipe R&D Vérification et Validation dédiée aux variateurs de vitesse . Job Description 🙌🔽 Vos missions principales seront les suivantes : 🔽🙌 🔸 Valider le firmware d’application des variateurs de vitesse en exécutant les cas de tests manuels et en vérifiant le comportement avec des applications clients telles que : pompes, levage, ventilation 🔸 Réaliser des tests d’intégration des variateurs de vitesse avec les automates 🔸 Tester l’interopérabilité via différents bus de terrain industriels (IA Fieldbus) 🔸 Collaborer et communiquer en anglais avec les équipes basées en Inde, en Chine et à Vienne 🔸 Fournir une décision sur les résultats d’essais 🔸 Assurer la traçabilité des tests de bout en bout c'est à dire jusqu'au cahier des charges 🔸 Créer et suivre les défauts détectés 🔸 Contribuer à l'analyse et à la résolution des défauts détectés 🔸 Effectuer des tests et des mesures de performances de l'application 🔸 Développer et maintenir un ensemble de livrables à usage interne et externe comme des démos, des vidéos, de la documentation... 🔸 Assurer la capitalisation des connaissances et savoir-faire 🔸 Contribuer à la définition des nouveaux bancs d’essais en lien avec les acteurs projets 🔸 Soutenir le responsable de la validation logicielle dans la définition du plan de test et de la stratégie de test 🔸 Contribuer à l'amélioration continue du laboratoire 🔸 Participer à la stratégie des nouvelles technologies et du déploiement 🔸 Suivre l’évolution des technologies et faire de l’analyse concurrence, assurer la capitalisation des connaissances et savoir faire
Freelance

Mission freelance
Technical Business Analyst - Banking - AI Process & Efficiency (h/f)

emagine Consulting SARL
Publiée le

12 mois
500-600 €
75008, Paris, Île-de-France
Vous êtes un analyste commercial technique expérimenté, doté d'une solide expérience dans le domaine des technologies bancaires et capable de définir des cas d'utilisation basés sur l'IA ? emagine vous offre l'opportunité de participer à un programme axé sur l'efficacité et visant à améliorer les processus bancaires au sein d'une équipe internationale. Ce poste implique de travailler en étroite collaboration avec plusieurs équipes d'ingénieurs et des parties prenantes de haut niveau afin d'identifier les inefficacités, d'évaluer la faisabilité et de concevoir des solutions d'IA et d'automatisation. Are you an experienced Technical Business Analyst with strong banking technology experience and the ability to define AI‑enabled use cases? emagine has an opportunity for you to support an efficiency‑driven programme focused on improving bank processes with a global team. The role involves partnering closely with multiple engineering teams and senior stakeholders to identify inefficiencies, assess feasibility, and shape AI and automation solutions. Skills & Experience 8+ years as a Technical Business Analyst in large, complex banking technology programmes. Strong experience operating across multiple engineering teams and senior stakeholder groups. Demonstrated involvement in AI initiatives or automation‑focused programmes. Advanced SQL skills with the ability to independently analyse and test data outputs. Deep understanding of Agile delivery and technical SDLCs. Background in financial services or capital markets. Fully fluent in English demonstrating excellent technical and business communication skills Available to work in central Paris 3+ days per week Key Tasks & Deliverables Engage with senior stakeholders to understand current processes and pain points. Work across multiple technology teams to gather requirements and assess technical feasibility. Define, document, and prioritise AI and automation use cases aligned to existing platform capabilities. Build clear current‑state and target‑state process flows. Translate business needs into detailed technical requirements and user stories. Lead backlog creation, refinement, and prioritisation with Product Owners and delivery teams. Perform hands‑on testing of delivered solutions, including SQL‑based data validation. Articulate recommendations, trade‑offs, and delivery options to senior stakeholders. Ensure all delivery aligns with enterprise technology, data, and risk standards. Why emagine? Our teams are collaborative, supportive, and enabling , while still valuing autonomous, self‑starting consultants who can drive delivery with minimal oversight. This project will allow you to work with on innovative high profile AI projects for an international trading bank. You will be onsite in central Paris with the option of 2 day’s per week remote working. Apply with your latest CV or reach out to Brendan to find out more.
Freelance

Mission freelance
Data Engineer Nantes/pa

WorldWide People
Publiée le
Scripting

12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance

Mission freelance
Expert Observabilité & APM Dynatrace

JobiStart
Publiée le
Dynatrace

3 ans
430-550 €
Paris, France
Au sein du centre d'excellence monitoring, vous êtes le référent technique sur la solution Dynatrace pour l'ensemble des applications critiques de la banque. Votre mission consiste à concevoir et déployer l'architecture de monitoring full-stack, de l'installation des OneAgents à la configuration des modules log analytics et Real User Monitoring (RUM). Vous accompagnez les équipes applicatives dans la définition de leurs KPIs de performance, la création de tableaux de bord avancés et la mise en place d'alerting intelligent basé sur l'IA (Davis). Vous analysez les goulots d'étranglement complexes, optimisez les temps de réponse des transactions distribuées et participez à l'automatisation de l'observabilité (Monitoring as Code) via Terraform ou l'API Dynatrace. Vous jouez un rôle clé dans la culture "Performance by Design" en fournissant des métriques exploitables pour les phases de tests de charge et de production.
Freelance

Mission freelance
Un Expert / Référent Technique – Dataiku & Braincube sur Malakoff

Almatek
Publiée le
Dataiku

6 mois
Malakoff, Île-de-France
Almatek recherche pour l'un de ses clients; Un Expert / Référent Technique – Dataiku & Braincube sur Malakoff. Environnement Technique : Plateforme Dataiku en environnement hybride : Cloud AWS (Landing Zone Safran) + On Premise pour données C3 Services : Design Node, Automation Node, API Node, Deployer Node Intégration écosystème Data, stockage pérenne, déport compute EKS / Snowflake Plateforme Braincube : Déploiement Cloud AWS sur EKS Architecture assurée par l’éditeur Braincube Sécurité & Gouvernance : RBAC, SSO/IAM, journalisation, conformité RGPD Documentation & Outils : VS Code, Git, frameworks internes Confluence/SharePoint Data Factory Gestion agile via Teams & backlog Environnements : Dev / Pré-production / Production Processus d’industrialisation et de validation définis Prestation Attendue : Pilotage & gestion du service Maintien des standards, gestion des licences, suivi des usages via KPIs Gestion incidents, demandes, changements ; communication interne & client Définition et suivi des SLAs Optimisation de la performance opérationnelle Architecture & Expertise technique Rôle de référent technique & architectural pour la plateforme Data Groupe (Snowflake, Dataiku, Braincube) Garantie de la résilience du service, gestion des obsolescences Contrôle du niveau de sécurité Roadmap & gouvernance Construction de la roadmap d’évolution Pilotage du plan de charge Coordination France/Inde (prestataires, éditeur, interne) Communication & coordination Communication en cas d’incident, évolution ou maintenance Interface avec DSIC (GCIS, Delivery cas d’usage, etc.) Support & accompagnement Accompagnement des équipes dans l’exploitation Dataiku/Braincube Contribution à la montée en compétence des équipes Expertises Techniques Attendues : Très bonne connaissance des environnements Cloud AWS (S3, EC2, EKS) Maîtrise de Dataiku (DSS, Automation, API, Deployer) Connaissance du ML Ops, IA, Machine Learning et IA générative Bases solides en architecture de données & systèmes d'information Compréhension des modèles de gouvernance Data (RBAC, sécurité, RGPD) Connaissance des problématiques d’exploitation data (flux, SLA, performance) Capacité à structurer une offre de service, un plan de formation et une gouvernance Excellente qualité rédactionnelle (docs d’archi, guides, supports de formation) Capacité à concevoir un business model adapté Livrables : Offre de service documentée, intégrée dans Service Now Météo du service : KPIs incidents, demandes, faits marquants Guide de bonnes pratiques Dataiku & Braincube (standards, modèles, FAQ) Supports de formation et onboarding (slides, démos, exercices) Plan de montée en compétence (par profil) Cartographie des flux et modèles de données cibles Business model défini et validé.
Freelance

Mission freelance
Juriste confirmé en droit numérique(H/F)

Freelance.com
Publiée le
ISO 27001

1 an
100-400 €
Toulouse, Occitanie
Dans le cadre du renforcement des dispositifs de conformité en matière de protection des données, la mission s’inscrit au sein d’un Centre de Service Sécurité Métier , rattaché à une équipe Privacy & Control , intervenant en support des plateformes Métiers d’un grand éditeur de solutions informatiques du secteur bancaire et assurantiel. 🎯 Objectifs de la mission Garantir la conformité des projets et des systèmes d’information aux exigences réglementaires en matière de protection des données personnelles Accompagner les équipes Métiers et IT dans l’identification, l’analyse et la maîtrise des risques Privacy Contribuer à la gouvernance et à la diffusion d’une culture Privacy au sein de l’organisation 🔍 Périmètre d’intervention Assistance et conseil auprès des chefs de projets IT dans l’identification des données à caractère personnel et des traitements associés Analyse des traitements et documentation des livrables RGPD conformément à la méthodologie CNIL Définition, formalisation et recette des exigences Privacy en lien avec les experts Sécurité des Systèmes d’Information Identification et évaluation des risques liés à la protection des données, avec proposition et suivi des actions de remédiation Réalisation et pilotage des Analyses d’Impact relatives à la Protection des Données (AIPD / PIA), en coordination avec les parties prenantes internes (Métiers, DPO, filières juridiques, achats et conformité) ➕ Activités complémentaires Contribution à la sensibilisation et à l’acculturation des collaborateurs aux enjeux Privacy (RGPD, cookies et traceurs, usages data et intelligence artificielle) Réalisation d’une veille réglementaire et normative en matière de protection des données Support opérationnel en cas de violations de données personnelles, demandes des autorités de contrôle et gestion des exercices de droits Interface avec les plateformes Métiers et la Direction de la Protection des Données pour le suivi des sujets Privacy
Freelance

Mission freelance
Auditeur Accessibilité Numérique senior H/F

Insitoo Freelances
Publiée le
Audit

2 ans
450-495 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Auditeur Accessibilité Numérique senior H/F à Paris, France. Contexte : Les missions attendues par le Auditeur Accessibilité Numérique senior H/F : Réalisation d’audits d’accessibilité numérique o Réaliser des audits d’accessibilité numérique, en particulier sur les projets les plus complexes (applications natives, sites de e-commerce, etc. ) o Identifier les non-conformités et prioriser les corrections o Rédiger des rapports d’audit clairs avec recommandations actionnables o Présenter les rapports aux clients Réalisation d’accompagnements accessibilité numérique o Accompagner l’accessibilité dès la conception des nouveaux produits numériques o Travailler étroitement avec les designers, développeurs et contributeurs tout au long des projets (revue des maquettes, revue des US, recommandations) o Proposer des solutions fonctionnelles et techniques accessibles o Rédiger des rapports d’audit intermédiaires et finaux o Rédiger des déclarations d’accessibilité Référent technique de l’équipe accessibilité numérique o Assurer le contrôle qualité des livrables produits au sein de l’équipe, garantir la cohérence des livrables o Répondre aux questions techniques des auditeurs et les épauler sur les projets spécifiques ou complexes o Accompagner les auditeurs dans leur montée en compétence technique en continu Veille technique et réglementaire o Assurer une veille constante sur les normes et évolutions réglementaires o Assurer une veille constante sur les évolutions techniques o Anticiper les évolutions des normes o Se tenir au fait des évolutions des solutions d’IA applicables aux métiers de l’accessibilité numériques
Freelance

Mission freelance
Data Engineer Nantes /st

WorldWide People
Publiée le
Python

12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance
CDI

Offre d'emploi
Databricks Data Engineer

VISIAN
Publiée le
API REST
PySpark

1 an
Île-de-France, France
Descriptif du poste Expert reconnu en plateforme de données et architecture Lakehouse, incluant : Optimisation Spark / PySpark (AQE, broadcast joins, stratégies de caching, autoscaling de cluster). Politiques de cluster, configuration de cluster et pool, et optimisation des coûts. Monitoring, diagnostics et dépannage des performances à l'aide de métriques et event logs. APIs REST et CLI pour l'automatisation. Expert reconnu en utilisation de Delta Lake, incluant : Pipelines d'ingestion et de transformation (Bronze–Silver–Gold). Delta Live Tables pour les pipelines de production (CDC, expectations, orchestration). Structured streaming et traitement incrémental. Débogage des goulots d'étranglement de performance dans les workloads Delta (data skew, petits fichiers, auto-compaction). Expert reconnu en : Python pour l'ingénierie des données, programmation orientée objet, data science, tests unitaires (pytest) et packaging. SQL (SQL analytique, window functions, SQL Databricks). Spark / PySpark pour le traitement distribué et l'optimisation. Expert reconnu en utilisation de Unity Catalog, incluant : Implémentation du contrôle d'accès granulaire (sécurité au niveau des lignes et colonnes, vues dynamiques, masquage). Gestion des objets Unity Catalog à grande échelle (catalogs, schémas, tables, modèles et gouvernance des fonctions). Pratiques de développement sécurisé, protection des données et conformité réglementaire (RGPD, PII). Expert reconnu en Databricks Jobs et Workflows (orchestration des tâches, retries, monitoring), incluant : Databricks Repos et intégration Git / Gitflow. Déploiement des assets Databricks (notebooks, jobs, pipelines DLT) via des pipelines CI/CD. Databricks SQL editor et SQL Warehouses pour les dashboards ou pipelines de production. Infrastructure as Code utilisant Terraform (providers Databricks et Azure) et ARM templates. Maîtrise avancée de l'écosystème Databricks Machine Learning et Generative AI. Maîtrise avancée de MLflow (experiment tracking, model registry, model serving). Maîtrise avancée de la construction de pipelines ML utilisant Databricks AutoML, Feature Store et feature engineering. Expérience pratique avérée avec les outils de développement basés sur l'IA, incluant les workflows basés sur des agents. Bonne compréhension des normes d'interopérabilité émergentes telles que le Model Context Protocol (MCP) ou équivalent. Capacité à évaluer de manière critique et à intégrer de manière sécurisée les résultats générés par l'IA dans les workflows de développement.
CDI
Freelance

Offre d'emploi
Data Analyst Dataiku/Tableau/Script Python

OBJECTWARE
Publiée le
Dataiku
Python
Tableau Desktop

3 ans
40k-61k €
400-550 €
Île-de-France, France
Prestations demandées Production de dashboards Tableau • Exploration des données et mise en place de KPI pertinents, en concertation avec le Top management d’A3I et les offering managers • Création de dashboards permettant un suivi de l’adoption, de l’usage et de la performance des offres • Optimisation des dashboards existants (lisibilité, structuration). Préparation de données • Transformation et enrichissement des données via Dataiku. • Exploration et manipulation SQL sous PostgreSQL. • Contribution à la gestion de la qualité des données. Compétences techniques requises • Data Visualisation • Expertise Tableau • Très bonne maîtrise de SQL • Bonne maîtrise de Dataiku (préparation, traitements Python, recettes avancées). Soft Skills • Autonomie. • Rigueur et sens de la qualité. • Capacité d’analyse. • Force de proposition • Excellentes compétences de communication (écrite & orale). • Capacité à travailler en transversal, à fédérer et à challenger les parties prenantes. • Capacité à proposer et maintenir des standards dataviz cohérents entre les différentes offres IA.
Freelance
CDI

Offre d'emploi
Ingénieur Produit Senior Full Stack/CTO

R&S TELECOM
Publiée le
GraphQL
NestJS
PostgreSQL

1 an
Paris, France
Nous construisons une plateforme legaltech/fintech B2B SaaS innovante destinée aux entreprises privées, notamment adossées à des fonds de private equity. La plateforme existe sous forme de MVP avancé et a déjà des premiers clients utilisateurs. Produits Une interface web pour les entreprises, leurs actionnaires et l’ensemble des acteurs de leur écosystème pour suivre et participer aux opérations capitalistiques. Technologies Langages: TypeScript, GraphQL Frontend React, Next.js (app-router) Apollo, graphql-codegen next-intl, i18n Shadcn, Tailwind CSS Backend NestJS, NestJS/Apollo TypeORM / PostgreSQL DocuSign Postmark Infrastructure AWS ECS Fargate, S3, Route53 Vercel GitHub Actions IA Nous avons identifié 3 domaines où nos clients pourraient bénéficier de l'IA et testons actuellement le marché pour valider que nos clients sont prêts à confier une partie de leurs processus à des agents spécifiques. Vos responsabilités en tant qu'Ingénieur Produit Full Stack senior/CTO: Définir et porter la vision technologique alignée avec la stratégie produit et business Piloter l’architecture applicative (scalabilité, sécurité, performance, dette technique) et améliorer de façon continue la stack technique Structurer, recruter et faire grandir l’équipe tech (engineering, data, infra, security) Mettre en place des standards d’excellence : qualité de code, tests, CI/CD, observabilité Garantir la sécurité, la conformité (RGPD, ISO/SOC le cas échéant) et la résilience de la plateforme Être un partenaire clé dans les décisions stratégiques et interagir efficacement avec le CEO, les opérations et les sales pour accompagner la roadmap produit
585 résultats

Contrats
1

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous