Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Techno-Functional QA Engineer H/F
Analyse de projet : Collaborer avec les Business Analysts afin d’étudier les besoins du projet Planification et exécution des tests : Définir les plans et stratégies de test Rédiger et automatiser les cas de test lorsque cela est applicable Exécuter les campagnes de tests de régression Effectuer des tests manuels lorsque nécessaire Gestion des tests : Maintenir le référentiel de tests et le framework d’automatisation Consigner et suivre les anomalies (bugs) Assurer le suivi des correctifs et vérifier leur résolution Comprendre la mise en œuvre QA existante et contribuer à son amélioration Livraisons et reporting : Préparer les validations de release Suivre et communiquer l’état des tests ainsi que les indicateurs de qualité

Offre d'emploi
Data Analyst Senior Snowflake & PowerBI (H/F) (Bordeaux)
Skiils recrute un(e) Data Analyst Snowflake & PowerBI (H/F) pour rejoindre une équipe data en pleine transformation et participer à la valorisation des données et à la création de dashboards impactants ! Au cœur d’une petite équipe agile, tu auras pour mission de prendre le lead sur tes sujets , d’accompagner la migration et la refonte du datalake vers Snowflake, et de produire des analyses et visualisations pour soutenir les décisions stratégiques. En tant que tel(le), ton rôle consistera à : Concevoir et réaliser des dashboards PowerBI performants et intuitifs, permettant aux équipes métiers de prendre des décisions éclairées. Analyser, harmoniser et améliorer les datasets , identifier les données manquantes ou à enrichir pour répondre aux besoins business. Réaliser et optimiser des requêtes SQL complexes , avec une compréhension fine des besoins fonctionnels. Collaborer à l’alimentation de Snowflake via Python , selon tes appétences, pour garantir la qualité et la fiabilité des données. Proposer des analyses et insights pour orienter les décisions et arbitrages de l’équipe. Participer activement à l’amélioration continue de l’équipe, challenger et être challengé dans un esprit

Offre d'emploi
Data Engineer Pyspark/AWS
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Pyspark/AWS Missions: Concevoir, développer et optimiser des pipelines de données robustes, performants et scalables. Encadrer et apporter une expertise technique sur les choix d’architecture et de stack. Déployer et orchestrer des traitements distribués (PySpark, Glue). Concevoir et exposer des APIs de données. Industrialiser et automatiser les environnements via Terraform et des pipelines CI/CD. Garantir la fiabilité, la performance et la sécurité des flux et services de données en production. Collaborer avec les équipes Produit, Data et Développement pour intégrer les besoins métiers dans les solutions. Partager les bonnes pratiques et contribuer à la montée en compétences de l’équipe. Si vous êtes actuellement à l'écoute du marché, je vous invite à m'envoyer votre candidature. Bien à vous, Nadia

Mission freelance
Développeur PYTHON ( réseaux, télécom)
Cherry Pick est à la recherche d'un Développeur PYTHON ( réseaux, télécom) pour l'un de ses clients dans le telecom. Missions : 🚀 Vos missions Concevoir, développer et maintenir des scripts Python back-end pour des outils de supervision et d'automatisation. Travailler en interface avec différents composants techniques (réseaux, plateformes, outils métiers). Participer à l’ industrialisation et la dockerisation des outils développés. Assurer l’intégration d’outils de supervision dans un environnement télécom . Être force de proposition dans l’amélioration des outils et des pratiques. 🧠 Profil recherché 7 ans d’expérience minimum en développement Python, principalement côté back-end . Solide culture réseau ou expérience significative en environnement réseau/télécom . Un profil d’ administrateur réseau qui a évolué vers le développement Python est également pertinent. Très bonne maîtrise de la dockerisation et des environnements conteneurisés. Forte autonomie, proactivité, et capacité à interagir avec des interlocuteurs techniques variés. Expérience dans l’intégration de solutions de supervision ou d’outillage télécom est un gros plus. ✅ Compétences clés Python (avancé, back-end) Culture réseaux / protocoles / supervision Docker / Docker Compose Bash / scripting système Outils de supervision (type Prometheus, Grafana, ou équivalents) Git / CI-CD

Mission freelance
Data Engineer Intégrateur
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d’un Data Engineer afin d’accompagner la transformation des systèmes d’information et l’évolution des architectures data. Vos missions principales consisteront à : Maîtriser et mettre en œuvre l’ensemble des techniques et technologies composant une Data Platform. Accompagner les projets de collecte, transformation, stockage et mise à disposition de données issues de sources variées. Concevoir et déployer des outils et processus d’automatisation (CI/CD) pour les pipelines d’ingestion de données, qu’ils soient en batch ou en temps réel. Développer et maintenir des mécanismes de contrôle qualité garantissant l’intégrité et la fiabilité des données. Participer à la conception des solutions techniques et fonctionnelles en lien avec les équipes opérationnelles. Gérer le cycle de vie complet des données (flux, traitement, stockage). Automatiser les installations des socles techniques et assurer un support technique et fonctionnel, incluant l’analyse et la résolution des incidents. Contribuer à la rédaction de la documentation fonctionnelle, technique et d’exploitation en respectant les normes existantes. Environnement technique : Bases de données SQL/NoSQL Kafka Dataiku Python / SQL / Java Suite Elastic Zabbix Dynatrace Si vous êtes actuellement à l’écoute du marché, je vous invite à m’envoyer votre candidature. Bien à vous

Mission freelance
Ingénieur / Expert Système Linux Sénior(H/F)
Nous recherchons pour un de nos clients un ingénieur Système Devops Sénior qui aura pour mission : - Assurer le maintien en condition opérationnelle des infrastructures Linux RHEL (support, astreintes, évolution de l'infrastructure …) - Installer et réaliser le maintien en conditions opérationnelles des environnements cluster Veritas Cluster et GPFS sur Linux - Définir les standards Linux, les règles d'ingénierie, les process et outils de Configuration Management - Construire les infrastructures de déploiement basées sur Kickstart, Ansible - Automatiser les gestes d'exploitation récurrents (via Ansible et/ou scripts shell, Python, Ruby, ...) - Participer aux optimisations des environnements serveurs opérés - Audits de performance - Tunning système Nous souhaitons que tous les collaborateurs de l'entité soient force de proposition et soient intégrés dans toutes les réflexions. A ce titre, le collaborateur devra : - Participer aux réflexions sur l'évolution de ces infrastructures et définir les impacts sur la production / le support - S'inscrire dans une démarche d'amélioration continue et proposer des axes d'améliorations tant sur la partie technique qu'organisationnelle Vos compétences techniques et relationnelles seront clés dans la réalisation de vos missions. Votre rigueur, votre autonomie, votre polyvalence et vos excellentes capacités de communication sont des atouts indispensables. Votre intérêt pour les technologies est « sans faille ». Ce poste vous permettra d'appréhender la production d'un environnement supportant plus de 25000 serveurs Linux et en très forte croissance et constitue une réelle opportunité tant sur le plan technique que sur les perspectives d'évolution (orchestration Cloud, conteneurisation, OS, infrastructures hyperconvergées, baremetal, orientation software defined....)
Offre d'emploi
Architecte SRE -Transformation du Modèle Opérationnel sur équipement On-Premise
Fiche de Poste : Architecte DevOps SRE - Transformation du Modèle Opérationnel Titre du Poste : Architecte DevOps SRE Lieu : Nanterre ( Rennes ) – déplacement ponctuels à prévoi r Contexte : Dans le cadre de la transformation du modèle opérationnel de notre client, un acteur majeur de l’énergie en France, nous recherchons un Architecte DevOps SRE pour accompagner cette évolution technologique et opérationnelle. L'objectif est de faire évoluer l'infrastructure, les pratiques et les outils en place, tout en garantissant la fiabilité, la scalabilité et la performance des systèmes de production. Missions : L’ Architecte DevOps SRE aura pour mission principale de mettre en œuvre une architecture DevOps performante et durable , tout en renforçant la culture SRE au sein de l'organisation . Il/elle interviendra sur l’ensemble des phases de la transformatio n et travaillera en étroite collaboration avec les équipes internes (Développement, Infrastructure, Sécurité, etc.) Analyse et diagnostic : Évaluer l’existant en termes de pratiques DevOps, d’infrastructure et d’automatisation. Identifier les leviers d’amélioration et définir une feuille de route pour la transformation du modèle opérationnel. Architecture et mise en place des pratiques DevOps : Concevoir et implémenter une architecture DevOps adaptée aux besoins du client. Automatiser les processus de livraison et de déploiement via des outils CI/CD. Intégrer les pratiques d’infrastructure as code (IaC) et de gestion de la configuration (ex : Terraform, Ansible). Optimiser la gestion des pipelines et le versioning des applications. Mise en place de la culture SRE : Définir des métriques et des SLAs pour garantir la disponibilité et la performance des services. Développer et automatiser des stratégies de monitoring, de gestion des incidents et de gestion des performances (observabilité, alerting, logs centralisés). Mettre en œuvre des stratégies de résilience des systèmes et des tests de charge. Accompagner les équipes internes dans la mise en œuvre des pratiques SRE pour la gestion proactive des incidents et des pannes. Amélioration continue : Concevoir des processus d’amélioration continue pour optimiser la gestion des opérations, la collaboration entre les équipes de développement et d’infrastructure. Piloter les actions de remédiation post-mortem pour éviter la récurrence des incidents. Sensibiliser les équipes à l’importance de la culture DevOps et SRE. Accompagnement et transfert de compétences : Former et accompagner les équipes internes sur les bonnes pratiques DevOps et SRE. Créer des documents techniques et des guides pratiques pour assurer l’autonomie des équipes dans la gestion des processus DevOps et SRE. Assurer un suivi régulier de l’évolution des pratiques et des outils.

Offre d'emploi
DEVELOPPEUR PYTHON F/H | STRASBOURG (67)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et intégrez une équipe qui pilote les sites internet et les applications du groupe. Vous participerez au développement et à l'évolution des solutions digitales stratégiques. À ce titre, vous serez en charge : Concevoir, développer et maintenir des applications et services back-end en Python 3 , en lien direct avec les produits digitaux du groupe. Participer à l’intégration et au développement d’ API REST robustes et sécurisées. Contribuer aux tests automatisés (unitaires, fonctionnels) via Pytest . Collaborer avec les autres équipes techniques et fonctionnelles pour faire évoluer les plateformes web et mobiles. Participer à l’amélioration continue du code et des pratiques de développement (CI/CD, revues de code, documentation). Éventuellement intervenir sur des composants en C++ selon les besoins des projets. Environnement Technique : Python, Git, Linux, API Rest, Pytests, Pydantic, FastAPI, SQL, Docker, Javascript, Angular Le poste est basé à Srasbourg (67) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 2 à 3 jours de télétravail par semaine.

Offre d'emploi
Développeur Full stack (React/vueJS/Python)
La data et l’IA sont identifiées comme des axes majeurs du plan stratégique de l’entreprise à 2025. Dans ce cadre, le DataLab se pose naturellement en acteur stratégique. Ses trois principales missions : • Fournir une plateforme de data science appelée « Sparrow » à l’ensemble des équipes analytics • Prendre en charge des « uses cases » data science • Faciliter la mise en production de modèles de Machine Learning. Notre besoin concerne le produit QABI : un chatbot interne développé pour améliorer la productivité et augmenter l'efficacité des agents. Il utilise un modèle AI de langage pour comprendre les questions des utilisateurs et trouver la réponse la plus pertinente. Il fournit aussi des analyses et des informations détaillées pour aider à optimiser le service client. Et aussi des interfaces à developper des interfaces et industrialiser nos projets d'AI Notre stack technique : - Backend : Python - Frontend : VueJS, React - Infrastructure/DevOps : Docker, GitLab CI/CD, Ansible. - Cloud privé - OS : RedHat 7.7 la prestation se déroulera au sein ! – Équipe jeune et dynamique au profil “Start-up” au sein d’un grand groupe, BNP Paribas. – Espace de co-working réservé à l’équipe DataLab, dans un bâtiment de type Flex-Office. – Proximité avec les équipes IA et Industrialisation. – Poste de travail WINDOWS ou Mac Dans ce contexte, nous faisons appel à une prestation en assistance technique. Les missions sont : - Maintenir le code front et back existant - Concevoir et développer de nouvelles fonctions au travers de sprint avec notamment: - la fonction search - la gestion des langues. - mise à jours en masse de la base de connaissance - Mettre en place un reporting pour suivre les commentaires des utilisateurs - Amélioration des performances (optimisation du code actuel et de la base de données) - Interagir avec le PO pour partager une vision claire et détaillée des besoins - Contribuer à la vision globale produit moyen terme et long terme Hard Skills : – Excellent niveau en ReactJS/vueJS – Solides connaissances de Python et FastAPI – Maîtrise de GitLab et des processus de CI/CD. – Connaissances solides en software engineering. – Bonnes connaissances des infrastructures Cloud (système distribué et Object Storage) – Bonnes compétences réseaux : reverse proxy (Traefik, nginx), authentification (Keycloak, JWT). – Anglais correct à l’écrit et à l’oral. – Kubernetes et la stack ELK sont un plus. – de même que Linux et Docker. Soft Skills : – vous êtes dynamique et aimez collaborer avec une équipe motivée – vous êtes force de proposition – vous êtes rigoureux, autonome, curieux et aimez innover – vous formulez et recevez des feedbacks au service de l’amélioration continue – vous aimez partager les savoirs avec vos collègues
Offre d'emploi
Data analyst Senior - CDI
Notre client est une scale-up toulousaine qui révolutionne l'impression photo instantanée aux États-Unis depuis 2010. Grâce à ses applications mobiles et web, elle permet aux utilisateurs de commander leurs photos et de les récupérer en moins d'une heure dans plus de 20 000 points de vente (Walmart, Walgreens, CVS) En tant que Data Analyst Senior, tu es au cœur des décisions stratégiques. Tu interviens sur des projets analytiques de bout en bout : définition des besoins, exploration de données, modélisation avancée, mise en place de dashboards… tout en participant activement à l’amélioration des standards analytiques de l’équipe. 🎯 Tes missions principales : Mener des analyses complexes (modélisation, segmentation, prévisions) pour éclairer les décisions des équipes Produit, Business et Tech. Transformer les besoins métiers en solutions analytiques robustes, fiables et scalables. Accompagner les Data Analysts juniors via du mentoring et des revues régulières. Participer à la formalisation des bonnes pratiques analytiques. Être force de proposition sur de nouveaux outils, frameworks ou méthodes pour enrichir notre culture data.
Offre d'emploi
Consultant Data Collect & Transformation – Elastic Stack
Dans le cadre du déploiement de son SOC et de la collecte centralisée des logs sécurité de ses entités métiers, notre client recherche un consultant expérimenté en ingénierie Data Collect et Data Transformation . La mission s’articulera autour de la mise en place, du déploiement et du maintien d’un puits de données sécurité basé sur l’Elastic Stack, afin de permettre la corrélation d’événements et la mise en place d’alerting sur des patterns de sécurité. Missions principales : Mise en place et définition des mécanismes de collecte des données. Conception des patterns d’architectures de la collecte. Déploiement des dispositifs sur l’infrastructure Groupe et dans les filiales à l’international. Définition et mise en œuvre d’une stratégie de collecte uniforme et standardisée. Mise en place de pipelines d’enrichissement des données. Maintien en condition opérationnelle de la plateforme et des agents de collecte. Mise en place des processus d’onboarding de nouvelles sources de logs et d’assets. Support et conseil aux entités utilisatrices. Maintien et contrôle de la donnée collectée (exhaustivité et qualité).
Offre d'emploi
Développeur Angular/Python
Description et livrables de la prestation La mission principale du consultant sera de concevoir et développer des IHMs permettant d’exploiter les données mises à disposition via des traitements de données complexes mais aussi de réaliser de bout en bout des applications en mode commando à destination des métiers. Le candidat idéal devra avoir la capacité de réaliser les tâches ci-dessous : - Concevoir et développer des applications web en utilisant Python pour le backend (avec des frameworks comme Django ou Flask). - Développer des interfaces utilisateur dynamiques et réactives en utilisant des technologies frontend modernes (comme Angular, React ou Vue.js). - Intégrer les API RESTful pour permettre la communication entre le frontend et le backend. - Collaborer avec les équipes de design et de produit pour créer des expériences utilisateur fluides et engageantes. - Optimiser les performances des applications et garantir la qualité du code par des tests unitaires et fonctionnels. - Participer à la mise en place de bonnes pratiques de développement et à la documentation des projets - Maintenir et déployer les MVPs déployés en production - Industrialiser le déploiement à travers d'XLD, jenkins - Développer des solutions cloud native sur GCP (cloud function, pub/sub, bigquery, vertexai)

Mission freelance
IA Engineer Python Golang
Dans le cadre de sa prestation, l'intervenant externe évoluera au sein de la direction de la Data chez BNP AI Delivery. AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte * une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée * un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. * une plateforme d'exécution des modèles de Datascience, Sparrow Serving * et un outil de Community Management, Sparrow Academy L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien.
Mission freelance
Project Management Office
Métiers : Pilotage de projet ou de programme, PMO Spécialités technologiques : BI, API, Reporting, Gestion de projet, Logiciels de Gestion Type de facturation : Assistance Technique (facturation au taux journalier) Compétences : Technologies et Outils : Microsoft Project, Summitgenai, JIRA, Power BI, Azure, Excel, Python Méthodes / Normes : PMP, Agile, Scrum Langues : Anglais Secteurs d'activités : Assurance Description et livrables de la prestation : Support aux instances de gouvernance : Préparer et créer les supports de présentation pour les réunions, assurer l’exactitude, la ponctualité et l’alignement des documents. Coordination des parties prenantes : Servir d’interlocuteur clé entre équipes Business Innovation, GenAI Center of Expertise et autres parties, faciliter la communication pour assurer l’alignement et l’avancement des projets. Organisation d’événements : Planifier et gérer des événements comme le Business Scaling Summit, coordonner prestataires, gérer budgets et plannings. Suivi et reporting projet : Contribuer au suivi de l’avancement, préparer des rapports réguliers et informer la direction. Documentation et support administratif : Maintenir la documentation projet, fournir un support administratif pour le bon fonctionnement des équipes. Amélioration continue : Identifier des opportunités d’optimisation, proposer des solutions et contribuer aux bonnes pratiques en gestion de projet.
Offre d'emploi
Ingénieur API & Intelligence Artificielle (H/F)
Nous recherchons un API & Prompt Engineer expérimenté pour rejoindre une équipe engagée dans le développement d’une plateforme SaaS innovante dédiée au calcul d’empreinte environnementale (carbone, hydrique, biodiversité). Vous contribuerez à l’intégration de l’IA dans une gamme de produits digitaux stratégiques, en lien direct avec les équipes produit et techniques. 🎯 Missions Concevoir, développer et optimiser les agents AI et leurs fonctionnalités. Écrire, tester et améliorer des prompts . Définir et développer les APIs nécessaires au fonctionnement des agents. Contribuer au développement de nouvelles fonctionnalités en mode collaboratif. Travailler au quotidien avec Product Owners, Product Managers, développeurs et UX Designer. Garantir les bonnes pratiques de développement et la qualité technique des livrables. 🔧 Compétences recherchées 5+ ans d’expérience en développement logiciel, notamment en Python . Solide maîtrise de la conception d’APIs . Expérience confirmée en intégration de solutions AI . Bonne connaissance des méthodologies Agile (Scrum, CI/CD, GitLab, etc.) . Connaissance de l’ environnement Cloud (GCP apprécié). Excellentes qualités relationnelles et capacité à travailler en équipe. 📍 Localisation & organisation Basé en Île-de-France. Télétravail possible jusqu’à 2 jours par semaine . Équipe projet internationale et pluridisciplinaire (12 personnes). 📅 Démarrage & durée Démarrage : ASAP – septembre 2025 . Mission longue durée : 12 mois et plus . Positionnement possible en CDI ou en freelance (ouverture aux sous-traitants).

Mission freelance
Développeur Python/Spark JUNIOR
CONTEXTE Expérience : 1 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Big Data, Machine Learning, Versioning, Gestion de configuration Pour l'un de nos client, nous sommes à la recherche d'un Dev Python/Spark JUNIOR. Le périmètre concerne la gestion et l’évolution d’une plateforme Big Data & Machine Learning, intégrant des briques transverses et une approche platform-as-code. Celle-ci permet, à partir de spécifications fonctionnelles, d’automatiser et d’accélérer la création de l’empreinte applicative des projets. MISSIONS Dans ce cadre, le Service Engineer intervient pour configurer, livrer et maintenir les environnements cibles des projets en s’appuyant sur les outils mis à disposition par la plateforme. Il exploite les services existants tout en assurant leur bon fonctionnement dans le respect des besoins projets.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.