Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 711 résultats.
CDI

Offre d'emploi
Développeur Web (H/F)

Lùkla
Publiée le
API REST
Javascript
Node.js

4 ans
35k-45k €
300-350 €
Strasbourg, Grand Est
Contexte de la mission: Notre client, un acteur reconnu du secteur culturel et audiovisuel, renforce ses équipes digitales pour développer et faire évoluer ses plateformes web (site grand public, outils internes, services de diffusion et production de contenus). Vous intervenez au sein de la direction numérique, dans une équipe pluridisciplinaire (développeurs, UX, designers, PO, experts vidéo), avec un haut niveau d’exigence sur la qualité du code , la performance , l’ accessibilité et l’ expérience utilisateur . La mission s’inscrit dans un contexte d’innovation continue, d’optimisation des parcours utilisateurs et de modernisation des plateformes digitales. Objectifs de la mission: Concevoir, développer et maintenir des applications web à forte visibilité. Participer à l’évolution des plateformes digitales (site web, outils internes, services vidéo). Contribuer à l’architecture logicielle et aux bonnes pratiques de développement. Collaborer avec les équipes UX/UI pour garantir une expérience fluide et accessible. Intégrer des API internes et externes, optimiser les performances et la sécurité. Participer aux cérémonies Agile et aux décisions techniques. Assurer une veille technologique régulière.
Freelance

Mission freelance
Data Engineer confirmé (H/F) - 92

Mindquest
Publiée le
Apache Spark
Azure DevOps
Databricks

3 mois
400-550 €
Hauts-de-Seine, France
Nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark et SQL. - Analyse des traitements existants dans le cadre de projets de migration - Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake - Développement de notebooks Databricks pour des traitements avancés de données - Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) - Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) - Réalisation de revues de code dans une logique de qualité et de bonnes pratiques - Conception et exécution de tests unitaires - Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
Freelance

Mission freelance
POT9072-Développeur Web (React / Python) – Accessibilité RGAA – Orléans

Almatek
Publiée le
Python
React

6 mois
330-380 €
Orléans, Centre-Val de Loire
Almatek recherche pour l'un de ses clients, Développeur Web (React / Python) – Accessibilité RGAA – Orléans On cherche un profil spécialisé pour intégrer une équipe dédiée à l’accessibilité, dont la mission est d’accompagner des utilisateurs en situation de handicap (sourds, malvoyants, personnes présentant une déficience physique ou visuelle). Le candidat doit posséder une solide expertise en développement, tout en ayant une réelle sensibilité au support utilisateur, en particulier auprès de personnes en situation de handicap. Ci dessous le besoin : Les principales activités consistent à : Analyser les demandes d’évolution et/ou de correction Concevoir des solutions adaptées à WebAccess et NVDA, en conformité avec le cahier des charges et les exigences de qualité (performance, maintenabilité, exploitabilité, etc.) Concevoir en équipe la nouvelle solution « Aide en ligne » Développer et tester les solutions conçues Participer aux phases de recette avec des utilisateurs déficients visuels Assurer le support direct auprès des utilisateurs déficients visuels Pré-requis techniques Maîtrise du JavaScript natif Maîtrise de Python Maîtrise de HTML & CSS Maîtrise de React Sensibilité ou formation à l’accessibilité numérique et à l’éco?conception ==> tres important Une expérience significative en accessibilité numérique ou dans l’accompagnement d’utilisateurs en situation de handicap est indispensable pour ce poste. Par ailleurs, d’excellentes qualités de communication ainsi qu’un très bon savoir-être sont attendus.
Freelance
CDI
CDD

Offre d'emploi
DATA ENGINEER

VADEMI
Publiée le
Apache Spark
Azure
Databricks

1 an
Châtillon, Île-de-France
Nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark et SQL. · Analyse des traitements existants dans le cadre de projets de migration · Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake · Développement de notebooks Databricks pour des traitements avancés de données · Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) · Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) · Réalisation de revues de code dans une logique de qualité et de bonnes pratiques · Conception et exécution de tests unitaires · Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés 3 - Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Python minimum 5 ans · SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an
CDI
Freelance

Offre d'emploi
Développeur IA Python (AI-Native Developer)

TS-CONSULT
Publiée le
Azure
Pytorch
Tensorflow

1 an
Île-de-France, France
Bonjour, Actuellement je suis a la recherche d'un profil , Développeur IA Python (AI-Native Developer) Profil recherché : Développeur Python expérimenté, expert en IA/ML et maîtrisant le vibe coding, capable de développer rapidement des solutions innovantes avec assistance IA tout en garantissant la qualité et la maintenabilité du code. Compétences requises Hard Skills : • 5 ans d'expérience minimum en développement Python avec focus IA/ML • Expérience démontrée en vibe coding avec utilisation productive d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face, LangChain • Expérience confirmée avec les LLMs (fine-tuning, prompt engineering, RAG, agents) • Maîtrise des plateformes Cloud (AWS SageMaker, Azure ML, GCP Vertex AI) • Connaissance des technologies MLOps et pipelines CI/CD pour modèles IA • Compétences en data engineering (preprocessing, feature engineering, pipelines de données) • Maîtrise des bases de données (SQL, NoSQL, Vector DBs) • Expérience en développement d'APIs (FastAPI, Flask, REST) • Bonne connaissance de la conteneurisation (Docker, Kubernetes) • Expertise en testing et qualité du code (pytest, unittest, code coverage) • Connaissance des outils de versioning (Git, GitLab/GitHub) • Un plus : Expérience en Computer Vision et/ou NLP Soft Skills : • Esprit critique développé face au code généré par IA • Capacité à décomposer des problèmes complexes et à formuler des prompts efficaces • Curiosité intellectuelle et veille technologique active sur l'IA • Pragmatisme : équilibre entre vitesse de développement et qualité • Rigueur dans la validation et l'optimisation du code • Autonomie et force de proposition • Excellent relationnel et capacité à travailler en équipe • Esprit agile et adaptatif • Capacité à partager ses connaissances et best practices Résultats attendus (Livrables) • Participation aux workshops avec les équipes IT/métiers et les Data Scientists • Développement et optimisation de modèles IA/ML pour les use cases métiers • Intégration et déploiement des modèles en production (APIs, microservices) • Utilisation experte du vibe coding pour accélérer le développement sans compromettre la qualité • Mise en place de pipelines MLOps (entraînement, versioning, monitoring) • Tests automatisés et validation des modèles (performance, robustesse, biais) • Documentation technique détaillée (code, modèles, APIs, prompts réutilisables) • Optimisation des performances (latence, coûts, scalabilité) • Veille technologique et recommandations sur les nouvelles techniques IA • Partage des best practices de vibe coding avec l'équipe Un anglais courant!
Freelance

Mission freelance
Ingénieur Logiciel Embarqué – Bare-metal – Freelance – Vendée

Next Mondays
Publiée le
Docker
Gitlab
GitLab CI

12 mois
350-400 €
Vendée, France
Au sein de l’équipe embarquée, vous interviendrez sur : Développement logiciel embarqué Participation à l’architecture système Prototypage et validation Tests terrain (très important) Interaction forte avec le hardware 👉 Environnement très hands-on : on attend quelqu’un qui met les mains dans le produit (tests, mesures, essais). Environnement technique C embarqué baremetal (critique) Microcontrôleurs : STM32 / ESP32 FreeRTOS Python (outil / script) Gitlab / CI VSCode / Docker 👉 Contexte : embarqué bas niveau (pas Linux embarqué)
Freelance
CDI

Offre d'emploi
Expert Data Engineering / DevOps AWS sur Plaisir

EterniTech
Publiée le
AWS Glue
DevSecOps
ETL (Extract-transform-load)

3 mois
Plaisir, Île-de-France
Je cherche pour un de mes client un Expert Data Engineering / DevOps AWS sur Plaisir Démarrage souhaité : ASAP Localisation : Plaisir Rythme : 3 jours sur site / semaine, 2 jours en télétravail Expérience requise : minimum 10 ans Langues : Français : échanges DSI / métiers Anglais : documentation et communication avec les filiales Contexte de la mission Dans le cadre de la mise en place de la dataplateforme SAO , un grand groupe industriel du secteur aéronautique recherche un expert Data Engineering / DevOps AWS capable de : Finaliser un premier use case d’ingestion de données ERP vers la dataplateforme. Industrialiser l’ingestion d’environ 120 tables. Automatiser les flux entre les couches Raw Data et Standardized . Accompagner la montée en compétence des équipes internes juniors. Documenter les travaux réalisés et sécuriser l’exploitabilité de la solution Attendus de la mission : Le profil devra intervenir sur la conception, l’industrialisation et l’accompagnement des équipes . 1. Volet Data Engineering AWS Analyse des besoins métiers autour des produits data Contribution aux spécifications fonctionnelles et techniques Conception d’architectures data adaptées à AWS Mise en place de pipelines d’ingestion robustes et automatisés Ingestion de données structurées, semi-structurées et non structurées Industrialisation des flux ERP / datalake vers la dataplateforme Automatisation du passage Raw Data → Standardized Production ou validation des data products Mise en place des bonnes pratiques de sécurité, scalabilité et conformité 2. Volet DevOps / industrialisation Mise en place ou optimisation des processus CI/CD Gestion des environnements DEV / PREPROD / PROD Déploiements non régressifs de data products Versioning du code, des schémas et de la data Supervision technique des traitements Pilotage des tests techniques, métiers, performance et sécurité Assistance au démarrage et suivi post-mise en production 3. Volet documentation / transfert de compétences Rédaction de la documentation projet, technique et utilisateur Rédaction des modes opératoires et cahiers de recette Transfert de compétences auprès des équipes internes Accompagnement des équipes juniors Digit SAO et Data Engineering Reporting hebdomadaire et remontée des risques / points d’avancement
Freelance

Mission freelance
Data Engineer – Tracking & Analytics

Nicholson SAS
Publiée le
BigQuery
Google Tag Manager
Looker Studio

7 mois
340 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d'une refonte majeure des outils de mesure d'audience, nous recherchons un Data Engineer pour accompagner la migration de l'écosystème analytics (transition de Adobe Analytics vers Piano Analytics ). Intégré(e) au département Solutions Digitales au sein d’une équipe agile, vous serez le garant de la collecte, de la transformation et de la restitution des données issues des canaux digitaux. La mission repose sur une exploitation avancée de la suite Google Data (GTM, BigQuery, Looker Studio). Missions principales 1. Implémentation & Tracking Accompagner les métiers dans la définition des besoins en tracking et des KPI associés. Assurer le paramétrage via Google Tag Manager (GTM) . Réaliser la recette des données lors des phases de test et après mise en production des features. 2. Engineering & Data Pipeline Concevoir et maintenir les flux d'ingestion de données vers BigQuery . Développer des scripts de transformation et d'ingestion (principalement en Node.js et Python ). Assurer le monitoring quotidien des flux (interventions et correctifs si nécessaire). Intégrer de nouvelles sources de données pour enrichir le pilotage global du projet. 3. Restitution & Analyse Fiabiliser et mettre à disposition les données dans Looker Studio . Analyser les données produites pour en extraire des enseignements actionnables. Contribuer à l'amélioration continue des processus et des méthodes de l'équipe. 4. Collaboration Agile Interagir étroitement avec les différents corps de métier (PO, UX, Architectes, Développeurs, Testeurs) pour la co-construction des fonctionnalités. Participer activement aux rituels du train Agile. Modalités pratiques Lieu : Niort (79) – Présence sur site obligatoire 3 jours/semaine . Démarrage : ASAP. Durée : Jusqu'au 31/12/2026. Budget d'achat max : 340 € HT / jour.
Freelance

Mission freelance
Consultant data tracking & analytics

SMH PARTICIPATION
Publiée le
BigQuery
Google Tag Manager
Javascript

6 mois
100-380 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Au sein de la Direction du Digital et des Systèmes d'Information . Avec l'équipe en charge de la collecte, de la transformation et de la restitution des données collectées sur les canaux digitaux. Nous recherchons une prestation sur la suite Data de Google (Google Tag Management, Looker Studio et BigQuery). Objectifs et livrables Exploitation des données Le fonctionnement en mode SAFe implique des livraisons à fréquences régulières. Dans ce cadre, de nouvelles données sont créées en permanence et nécessitent d’être mises à disposition pour répondre aux besoins de reporting. Les missions sont : Collaborer avec les autres membres de l’équipe sur les données nécessaires à la mesure des features : définition des objectifs / KPI’s Accompagner dans la définition des besoins en tracking Recetter les données lorsque la feature est en phase de test Recetter les données après la mise en production de la feature Préparer et ingérer des données dans Big Query (en Node JS) Mise à disposition des données fiabilisées dans Looker Studio Participer à l’analyse des données produites, en tirer des enseignements En complément : Veiller au bon fonctionnement de l’ingestion de données quotidiennes, appliquer un correctif si nécessaire Ingérer de nouvelles sources de données nécessaires au monitoring global des KPI’s du train Gérer et optimiser Les notions d’analyse et d’amélioration sont centrales pour accompagner le développement du train, ainsi il est aussi demandé de : Participer à l’analyse des données issues des monitoring afin d’en tirer des enseignements Participer à l’amélioration continue (dans les tracking, les process ou le fonctionnement de l’équipe) Communiquer et proposer Les déploiements en mode agile nécessite une organisation pluri-métier autour de la roadmap du train, la communication avec les autres est une notion clé. Nous recherchons un profil qui : Communiquer avec les autres corps de métier (PO, UX, testeurs, architectes, développeurs) dans la construction des features Pour les compétences demandées, il faut créer Piano Analytics à la place de Adobe Analytics
Freelance
CDI

Offre d'emploi
AI Tech Lead – Data Architecture & Big Data (Python / Oracle / Angular)

Deodis
Publiée le
Agent IA
Angular
Big Data

1 an
40k-62k €
500-640 €
Île-de-France, France
En tant que Tech Lead IA & Data Architect , vous intervenez au sein de la DSI Groupe pour accompagner la mise en place de solutions innovantes autour de l’intelligence artificielle et de la data. Vous jouez un rôle central entre les équipes métiers et techniques, avec une double casquette : expertise technique et pilotage de projets . Dans un environnement international, vous contribuez à la conception, au développement et au déploiement de solutions data performantes, tout en garantissant leur qualité, leur sécurité et leur alignement avec les enjeux business. Analyser et comprendre les besoins métiers afin de proposer des solutions adaptées Concevoir et définir l’architecture technique des solutions Data & IA Piloter le développement et l’intégration des modèles d’intelligence artificielle Assurer la qualité, la performance et la sécurité des solutions mises en production Encadrer et accompagner les équipes techniques sur les sujets IA Gérer les priorités, les plannings et le suivi des livrables Assurer la communication et le reporting auprès des parties prenantes
Freelance

Mission freelance
Développeur·se Fullstack Java/SQL/ Python confirmé (H/F)

ALLEGIS GROUP
Publiée le
Java
Python
SQL

2 ans
Puteaux, Île-de-France
Teksystems recherche pour son client grand compte un·e développeur·se fullstack pour rejoindre une équipe qui développe et maintient une application interne dédiée à la gestion de onnées sensibles et contractuelles.. Cette application est stratégique et repose sur : un back-end en Java , une base de données SQL complexe, des traitements automatisés en Java, SQL et Python . Le travail se fait dans un environnement Agile , avec des pratiques SAFe et des rituels réguliers (daily, sprint planning, rétrospective). La qualité du code est assurée via des revues de code systématiques. Le rôle est majoritairement back-end , avec un travail quotidien sur Java, SQL, Python et les traitements automatisés. Il comporte également une forte dimension fonctionnelle : compréhension des besoins des équipes métiers internes, analyse des règles de gestion, proposition de solutions et participation active aux ateliers Agile/SAFe. Vos missions 1. Analyse et compréhension des besoins Participer aux ateliers Agile avec les équipes métiers. Comprendre les besoins fonctionnels et les traduire en solutions techniques. Étudier les impacts sur les données et sur l’architecture existante. Contribuer à la rédaction des spécifications. 2. Développement et évolution de l’application Développer de nouvelles fonctionnalités en Java . Écrire, optimiser et maintenir des requêtes SQL . Développer ou adapter des scripts et batchs en Python . Faire évoluer le modèle de données (tables, relations, performances). Intégrer et assembler les composants logiciels. Participer activement aux revues de code pour garantir la qualité et la cohérence du code. 3. Tests et qualité Préparer les jeux de tests. Réaliser les tests unitaires et d’intégration. Identifier, analyser et corriger les anomalies. Vérifier la cohérence et la qualité des données traitées. Contribuer à l’amélioration continue des pratiques de développement. 4. Maintenance Maintenance corrective : correction des bugs et incidents. Maintenance évolutive : ajout de fonctionnalités, optimisation des performances. Suivi et fiabilisation des traitements automatisés (batchs). Participation aux rituels SAFe pour planifier les évolutions. 5. Documentation et collaboration Rédiger la documentation technique. Expliquer les choix techniques à l’équipe. Travailler en collaboration avec les développeurs, testeurs, PO et architectes. Contribuer à la diffusion des bonnes pratiques (tests, code review, qualité).
Freelance

Mission freelance
Lead / Data Engineer senior

Comet
Publiée le
Apigee
Google Cloud Platform (GCP)
Python

5 mois
210-630 €
Île-de-France, France
Bonjour à tous, notamment aux Data Engineers Seniors ⚙️ spécialisés sur GCP / BigQuery 🔎 Je cherche un Data Engineer Senior avec une forte dimension expertise technique et expérience en rôle de lead, pour rejoindre une data platform stratégique en pleine montée en puissance. L’objectif de la plateforme est de centraliser, transformer et exposer la donnée à grande échelle afin de supporter des cas d’usage analytics, BI et IA dans un environnement data moderne. La plateforme est déjà en place et entre dans une phase clé d’optimisation, de scalabilité et d’enrichissement des usages (notamment autour de l’IA). 💻 Ce que tu vas faire : - Concevoir et faire évoluer des pipelines data robustes, scalables et sécurisés - Développer des traitements avancés sur BigQuery (CTE, window functions, optimisation performance & coûts) - Optimiser les requêtes à grande échelle via analyse des plans d’exécution - Concevoir des modèles de données (star / snowflake) pour des usages BI (PowerBI, Looker) - Intégrer des sources de données multiples (API, cloud, bases, fichiers…) - Industrialiser les workflows via CI/CD et Infrastructure as Code (Terraform, Cloud Build) - Contribuer à l’intégration de cas d’usage IA dans les pipelines data - Participer aux choix d’architecture et structurer les bonnes pratiques data 🎯 Stack & environnement : BigQuery / SQL / Python / GCP / Cloud Build / Cloud Workflows / Apigee / Terraform / GitHub / PowerBI / Looker ➕ Bonus : expérience sur des environnements media / digital data (Google Analytics, Salesforce, CRM, social media) 📍 IDF : 2 jours de TT 🏡 📅 Démarrage : ASAP Qu'en penses-tu ? Une belle journée,
Freelance

Mission freelance
Senior Software Engineer (Python avec forte composante DevOps)-Secteur finance

AVALIANCE
Publiée le
DevOps
FastAPI
Finance

1 an
400-700 €
Île-de-France, France
1-Gestion de la chaine CI/CD : o Assumer le rôle de Release Manager pour les projets de l'équipe. o Développer et maintenir les environnements CI/CD. 2-Réduction de la Dette Technique : o Assurer les efforts de réduction de la dette technique par le biais de migrations, de mises à niveau et d'améliorations continues. o Organiser et animer la revue de la dette technique ITMO. 3.Pratiques DevOps : o Intégrer et promouvoir les pratiques DevOps pour améliorer l'efficacité des processus de développement et de déploiement. o Travailler à l'automatisation des workflows, à l'intégration continue et à la livraison continue. 4.Architecture et Design : o Concevoir et mettre en œuvre des architectures système robustes et évolutives pour répondre aux besoins évolutifs de l’équipe. o Collaborer avec les autres ingénieurs pour s'assurer que les solutions architecturales respectent les meilleures pratiques de l'industrie et les standards internes. o Analyser les systèmes existants et proposer des améliorations architecturales pour optimiser les performances et l'efficacité.
CDI
Freelance

Offre d'emploi
AI ENGINEER - DATA SCIENTIST

SMILE
Publiée le
Data science
Pilotage
Python

6 mois
Paris, France
Au sein de la DSI Corporate d’un grand groupe bancaire, le département Développements Tactiques de la direction Fast Delivery Solutions recrute un Expert Leader Data & IA . Cette direction a pour but de mettre en place des solutions rapides au service de l'ensemble des directions métiers et des fonctions supports, en réponse à des besoins ponctuels ou pérennes. En lien avec les DSI métiers, elle en assure la maintenance et participe à leur éventuelle intégration dans le SI. Pour ce faire, elle met au service des filières métiers une équipe de proximité multi solutions afin de les aider dans leurs travaux ponctuels, la réalisation de POC (Proof Of Concept), de reportings ou bien encore l’automatisation de tâches récurrentes. La mission se situe au sein du département Développements Tactiques qui a pour mission de : Développer des outils en mode commando et en proximité directe avec le métier. Mettre en œuvre des solutions faisant appel à de l’IA générative pour répondre à des besoins métier. Accompagner l’industrialisation de ces solutions dans le parc applicatif des DSI filières. Étudier la possibilité de mise en œuvre de solutions innovantes, au travers d’une veille technologique et d’études d’opportunités. Participer à des évènements et animations de démo ou d’ateliers autour de l’IA ou de la data. L’équipe, actuellement constituée de 19 membres (Data Engineers, Data Scientists et Développeurs FullStack), fonctionne entièrement en mode agile et en proximité avec les métiers. Jeune, dynamique, motivée et très proactive, l’équipe valorise l’entraide et la bonne ambiance. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les soft skills sont donc autant essentielles que les compétences techniques : bon communiquant, motivé, force de proposition et sociable. Compétences techniques déjà présentes dans l’équipe : Développement autour de l’IA Générative. Développement Python / Pycharm. Développement Front Angular. Développement de cas d’usage IA générative à destination du business. Développement PySpark / Spark / Scala. Connaissance des plateformes Cloud. Mise en œuvre de workflows sous Alteryx. La mission : L’équipe se voit confier un nouveau programme visant à mettre en œuvre un ensemble de Use Cases faisant appel à de l’IA générative ou consistant à automatiser des traitements. Pour faire face à ce nouveau programme, nous souhaitons renforcer nos compétences avec un AI Engineer confirmé Data & IA . Principales missions : Innovation et réalisation de POCs : assurer la faisabilité technique des cas d’usage, développer des POCs autour de projets IA générative, proposer des solutions innovantes (LLM, prompts, RAG, traitement de données complexes). Industrialisation : en collaboration avec la production applicative et les contributeurs DSI, industrialiser les sujets dont les POCs s’avèrent concluants. Expertise Data & IA Générative : leader techniquement les projets, en s’appuyant sur les technologies internes (plateforme cloud, outils IA, modèles de langage type Gemini). Force de proposition : identifier des axes d’amélioration et proposer des solutions innovantes. Partage de connaissances : contribuer à la montée en compétences collective au sein de l’équipe. Suivi des sujets : assurer une communication claire et synthétique au responsable de l’équipe et aux Product Owners.
Freelance

Mission freelance
Data Analyst (H/F) - Belgique

Mindquest
Publiée le
Python
SQL

3 mois
340-500 €
Gosselies, Hainaut, Belgique
Dans le cadre de ses activités, notre client recherche un(e) Data Analyst Transverse pour rejoindre l’équipe Reporting Transversal au sein de la Direction Stratégie & Transformation. Vous interviendrez sur l’analyse et la valorisation des données afin de soutenir la prise de décision stratégique et améliorer les performances globales de l’entreprise. Mission 1. Aide à la décision stratégique * Développer et implémenter des modèles et algorithmes de traitement de données * Produire des analyses avancées pour orienter les décisions stratégiques * Collaborer avec les métiers pour identifier les besoins data et proposer des solutions adaptées 2. Valorisation des données * Analyser les tendances et performances opérationnelles * Construire des scénarios prospectifs * Concevoir des dashboards et visualisations interactives (Power BI) 3. Contribution aux projets transverses * Participer aux projets de transformation de l’entreprise * Assurer la communication avec les différentes équipes * Contribuer aux initiatives de transformation digitale
Freelance

Mission freelance
Ingénieur Test Système

HAYS France
Publiée le
Azure DevOps
Python
Robot Framework

3 mois
Nouvelle-Aquitaine, France
Informations générales Intitulé du poste : Ingénieur Test Système Lieu : Nouvelle Aquitaine Type de contrat : 3 mois, renouvelable par tranche de 3 mois mais visibilité sur 1 an à minima Disponibilité : À partir de maintenant Missions principales Réaliser, animer le plan de qualification systèmes à partir des spécifications, des exigences qualités et des cas d’usages exprimés Mettre en place un banc de test automatisé en fonction du plan de test (création de PCB de tests, codage arduino, cablage produits, programmation drivers/librairies python) Rédiger les scripts de tests sur Robot Framework Créer, modifier et maintenir les librairies de test en python Réaliser les tests automatisés et/ou manuels selon le plan de qualifications Créer et maintenir les pipelines de tests automatisés sous AzureDevOps Animer le suivi des tickets de bugs avec l’équipe projet Collaborer et participer avec les équipes projet Profil recherché Formation : Bac+5 (école d’ingénieur ou équivalent) en électronique, systèmes embarqués ou domaine similaire. Expérience : Débutant accepté Compétences techniques : Maitrise du langage python et bonne connaissance en C. Expérience en RobotFramework et Arduino Expérience en test produit ou équivalent Connaissance de l’environnement Visual Code Connaissance en électronique Analogique ou numérique et création de petit PCB Expérience en AzureDevOps ou équivalent (création de pipeline, gestion de ticketing) Connaissance en IoT ou Smart building serait un plus (protocoles radio, MQTT, etc.) Qualités : Rigueur, autonomie et sens du travail en équipe. Capacité à gérer plusieurs projets en parallèle. Anglais niveau B2 minimum Avantages Travail en équipe sur des projets innovants. Au sein d’une équipe de 6 testeurs, en collaboration avec les équipes R&D France et internationale. Environnement dynamique et technologique. Possibilité de prolongation et évolution interne.
711 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous