L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 102 résultats.
Offre d'emploi
Développeur Python / React / IA
Publiée le
Django
IA
Python
3 ans
Paris, France
Télétravail partiel
Le développeur aura pour missions : Création d’applications cloud native sur des systèmes distribués pour les outils dédié à l’IA générative. Construction d’outils pour aider à automatiser plusieurs processus métier Participation au support et à l’onboarding des business case sur la plateforme Création de services d’intégration de Données Prise en charge et évolution des outils internes basés sur des systèmes distribués cloud natifs Intégrations de solutions IA aux outils existants
Offre d'emploi
Ingénieur Développeur Python Golang H/F
Publiée le
60k-70k €
Valbonne, Provence-Alpes-Côte d'Azur
[NoESN/SSII] En bref : CDI – Ingénieur Développeur Python H/F – Sophia-Antipolis – 60/75K€ – Télétravail 2 jours/sem Je recrute pour un acteur international des technologies réseaux un Ingénieur Développeur Python H/F . Tu veux rejoindre une entreprise high-tech à la pointe de la virtualisation réseau et de la cybersécurité ? Travailler sur des projets innovants mêlant sécurité et environnement Linux te motivent ? Alors cette opportunité va te plaire. TON POSTE Au sein de l’équipe R&D, tu participes au développement d'une nouvelle solution logicielle dédiée à la sécurisation réseaux. Tes mission seront les suivantes : - Concevoir, développer et maintenir les composants back-end, - Contribuer à l’évolution des solutions, - Intégrer et optimiser les services de sécurité et de connectivité, - Participer aux choix d’architecture et à l’amélioration continue des performances, - Travailler en méthode Agile avec les équipes systèmes, sécurité et DevOps, - Garantir la qualité, la fiabilité et la scalabilité des applications déployées.
Offre d'emploi
Chef de projet - Déploiement Télécom
Publiée le
Ansible
Apache Airflow
Apache Spark
1 an
54k €
500 €
La Défense, Île-de-France
Télétravail partiel
Dans le cadre du renforcement de la capacité de support sur la nouvelle offre DATAHUB , l’ingénieur support Data aura pour mission d’assurer le maintien en condition opérationnelle, le support de niveau 2 et l’optimisation des plateformes Apache Spark , Apache Airflow / Astronomer et Starburst (Trino) , déployées sur Kubernetes (IKS) et prochainement sur OpenShift . Le poste consiste à intervenir sur les incidents de production, analyser les causes racines, contribuer à l’optimisation des traitements et accompagner les équipes métiers dans l’utilisation efficace et sécurisée des plateformes. L’ingénieur participera également à la documentation technique, à la mise en œuvre des bonnes pratiques d’exploitation et à l’amélioration continue de l’écosystème DataHub. Il travaillera en étroite collaboration avec les équipes Data, Infrastructure et Sécurité afin de garantir la performance, la fiabilité et la scalabilité des environnements de production.
Mission freelance
Développeur Python Senior
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
12 mois
Hauts-de-Seine, France
Télétravail partiel
Secteur d'intervention : Assurance Type de prestation : Assistance Technique avec facturation journalière Métiers et fonctions impliqués : Études & Développement, Développeur Compétences techniques requises : Technologies et outils : Python, React (React JS) Méthodes / Normes : IFRS17; Adapter Soft skills : Rigueur Description de la mission : Le projet concerne un client dans le secteur de l'assurance, pour lequel le développeur sera intégré à une équipe Data à mi-temps (2/3 jours par semaine). La mission principale est le développement d'outils pour soutenir les activités métiers telles que la modélisation, projection actuarielle et études statistiques, notamment pour répondre à la norme IFRS17. Les responsabilités incluent : Développement en Python des études actuarielle sur le produit Maintenance du front de l'application (React) – connaissances en React appréciées Recueil, analyse et formalisation des besoins utilisateurs Coordination avec les Engineering Managers pour assurer le delivery (développement, tests, opérations) en respectant les exigences de sécurité du client Communication et application des standards et bonnes pratiques au sein de la tribu et des équipes métier
Offre d'emploi
Data Engineer Teradata / Big Data, spécialiste du RUN
Publiée le
Apache Hive
Apache Spark
Big Data
12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
La tribu DATA (DAT) construit et développe des applications sur la base de puissantes plateformes DATA à des fins d’usages variés servant toutes les directions métier du groupe bancaire. Pour répondre à ces usages, DAT est au cœur de la stratégie data-centric du groupe bancaire, et intervient aussi bien au niveau de l’architecture Data, sur les dernières technologies data, Big Data, IA, Teradata, SAS, DMP, Oracle ainsi que sur les solutions analytiques et de datavisualisation. La mission consiste à assurer les fonctions suivantes au sein de la Squad Socles Data de la tribu DAT : Veiller au quotidien à la bonne marche des plateformes Data (Teradata et Big Data) Intervenir au quotidien, sous contraintes de délais, lors des incidents d’exploitation (analyse, diagnostic, résolution). Produire le relevé matinal des exécutions des traitements sur les plateformes « Entrepôt et Usages » et « Big Data ». Analyser les actions correctrices à lancer : – court terme (relance rapide) – moyen terme (consignes pour les pilotes de nuit) – long terme (correctifs d’ordonnancement ou de traitements) Créer les incidents selon le process interne (JIRA). Assurer une communication unique pour les deux environnements DATA Vulgariser la communication technico-fonctionnelle auprès des intervenants (équipes internes et métiers). Mettre en place et diffuser les indicateurs de performance et de délais. Mettre en place des états mensuels des incidents et contribuer aux reportings et comités. Analyser les indicateurs d’assurance qualité de données et communiquer auprès des acteurs concernés. Intégrer des méthodes d’amélioration continue Proposer des améliorations du chemin critique en tenant compte des applications sensibles. Maintenir en condition opérationnelle les moyens, dans le respect des normes et critères de performance. Développer des composants d’amélioration. Définir et mettre en place des outils de normalisation, d’automatisation et de sécurisation de la production. Contribuer à la conception de nouveaux projets et évolutions. Contribuer aux états réguliers de contrôle : habilitations, comptes, connexions… Participer aux projets d’optimisation et d’amélioration de la QDF (Qualité de Fonctionnement)
Mission freelance
Responsable DevOps
Publiée le
Apache Airflow
Apache Spark
AWS Cloud
12 mois
400-620 €
Paris, France
Le Responsable DevOps devra encadrer et animer une équipe DevOps. Vous jouerez un rôle clé dans la gestion des produits et plateformes d’infrastructure en assurant leur disponibilité, leur performance, leur évolutivité, leur gestion de l’obsolescence, leur capacité et la maitrise des coûts OnPremise, Cloud ou hybride. Rattaché(e) au responsable de l’entité, vous serez responsable hiérarchique d’une équipe d’une vingtaine de personnes (collaborateurs et prestataires) de profils techniques devops Cloud Public et On Premise. Dans cette évolution organisationnelle, l’organisation hiérarchique est décorrélée de l’organisation opérationnelle. Le responsable DevOps devra donc travailler et s’organiser de façon transverse et étroite avec les Product Owner, le Product Manager et le responsable de l’entité sysops pour assurer le delivery et atteindre les objectifs en fonction des besoins. L’équipe DevOps de l’entité « Plateforme IT » a la responsabilité du build et du run des produits et plateformes d’infrastructures OnPremise et Cloud public.
Mission freelance
Ingénieur Data / BI
Publiée le
Azure Data Factory
Databricks
Scala
12 ans
400-560 €
Île-de-France, France
Télétravail partiel
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB est le datamart TV qui vise à centraliser et fiabiliser les données nécessaires au pilotage et à l’analyse de l’activité publicitaire TV linéaire. Le datamart se source principalement d’OptiPub, base de référence regroupant les informations issues des différentes applications métiers de la régie publicitaire. Côté restitution, Ouranos fonctionne principalement avec une logique de self-BI : nous mettons à disposition des métiers un univers BusinessObjects et/ou un dataset Power BI standardisé, que les utilisateurs exploitent pour construire leurs propres tableaux de bord et analyses. La finalité est de fournir un socle de données unique et cohérent permettant aux équipes métier d’accéder rapidement à des informations fiables sur l’activité pub TV et de gagner en autonomie dans le reporting. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Ingenieur Data 5-8 ans Définition du profil Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
Data Engineer Senior Secteur Media
Publiée le
Apache Airflow
Apache Spark
BigQuery
6 mois
520-640 €
Île-de-France, France
Télétravail partiel
Contexte et détails de la mission Définition du besoin La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestations attendues : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances de data engineering • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Modalités de la prestation : Présence sur site requise en fonction des besoins de la prestation et a minima équivalente à 50% du temps de la prestation. Astreintes week-end et jours fériés : Non Matériel performant à fournir par le prestataire : Pour ce faire, les postes informatiques utilisés par le prestataire lors des prestations doivent avoir : - Un antivirus à jour et activé - Un mécanisme de chiffrement du disque activé - Un système d'exploitation à jour de ses correctifs de sécurité - Un mécanisme de verrouillage du poste activé - Un moyen de stockage sécurisé des mots de passe. Usage de la langue française : L'exécution de chaque marché spécifique nécessite l'usage principal et permanent de la langue française dans les rapports avec les parties prenantes (documents, réunions, appels téléphoniques, courriers électroniques…). Les personnes en charge de l‘exécution des prestations doivent maîtriser parfaitement le français (et toute autre langue qui serait précisée après information dans le DCE du marché spécifique concerné) dans le contexte et environnement.
Mission freelance
Développeur SQL / PostgreSQL
Publiée le
PostgreSQL
SQL
12 mois
400-550 €
Paris, France
Télétravail partiel
Au sein du pôle Architecture Base de Données (ABD) , vous interviendrez sur des sujets clés autour de la conception, de l’optimisation et de la qualité des données. 🎯 Vos missions Concevoir des modèles de données dans un environnement PostgreSQL (méthodologie Merise). Appliquer les règles de normalisation et assurer la cohérence des schémas de données. Élaborer, créer et modifier des requêtes SQL performantes. Accompagner les développeurs dans la mise en œuvre des accès aux données. Créer et maintenir des scripts et procédures pgSQL . Comprendre les besoins fonctionnels et proposer des solutions adaptées. Évaluer la criticité des incidents et contribuer à leur résolution. Assurer un reporting régulier : avancement, difficultés, alertes. Être force de proposition sur les choix techniques et les implémentations. Participer aux réunions d’équipe (méthodologie Agile) . Utiliser les outils du quotidien : Jira, Mantis, ServiceNow , etc. 👤 Profil recherché Formation Bac +4/5 en informatique . 2 ans d’expérience minimum sur un poste similaire en développement SQL. Maîtrise de PostgreSQL fortement appréciée. Esprit analytique, rigueur, sens du service et capacité à travailler en équipe.
Mission freelance
Développeur Python /devops - Paris ou Orleans
Publiée le
Python
6 mois
400-420 £GB
Paris, France
Télétravail partiel
Développeur Python /devops ayant une double compétence en Python et DevOps pour participer à divers projets de transformation technique, notamment sur les sujets CICD et AZURE. Nous recherchons des candidats avec au moins cinq ans d'expérience en développement Python et en CI/CD. La connaissance du cloud, en particulier AZURE, est indispensable, et la maîtrise d'autres environnements cloud serait un atout. Nous avons besoin de personnes autonomes et passionnées par la technologie, car le client accorde une grande importance à cet aspect. L'équipe est très technique et dynamique. La mission est basée à Paris ou Orléans, avec la possibilité de télétravail trois jours par semaine
Mission freelance
Developpeur Fullstack Java/Python/Next.js
Publiée le
J2EE / Java EE
Python
React
210 jours
550-610 €
Paris, France
• Développer de nouvelles fonctionnalités de l’application • Maintenir la solution existante (amélioration continue) • Participer à l’élaboration de l’architecture applicative des solutions avec l’ensemble des parties prenantes (développeurs, architectes, équipe sécurité et infrastructure) • Participer à la conception technique (analyser les besoins et rédiger les exigences techniques) • Être garant des bonnes pratiques de développement (revue de code, etc) • Travailler en étroite collaboration avec l’ensemble des parties prenantes des sujets
Mission freelance
Tech Lead Java H/F
Publiée le
Apache Spark
Java
3 ans
Paris, France
Télétravail partiel
Pourquoi cette mission ? Rejoignez la DSI d’un grand groupe bancaire pour piloter la transformation technique des plateformes Risk . Au menu : architectures data & services modernes, industrialisation CI/CD, Kubernetes à l’échelle, qualité logicielle au cordeau — avec un vrai impact sur la performance et la fiabilité du SI Risque. Votre rôle Tech Lead hands-on, vous pilotez la conception et l’industrialisation des produits Risk RRO , vous accompagnez les devs au quotidien et vous êtes le point d’entrée technique des architectes. Vous faites progresser les standards d’ingénierie, sécurisez les mises en production et tenez le cap sur la dette/obsolescences. Missions clés Cadrage & architecture Concevoir des solutions en architectures orientées Data & Services (dont hexagonale ). Contribuer aux choix techniques, challenger les patterns, cadrer les impacts. Engineering & qualité Définir les bonnes pratiques de dev (code review, testabilité, perf, SLO/SLA, qualimétrie Sonar). Mettre en place/faire évoluer les CI/CD (GitLab CI, runners, quality gates, artefacts). Prendre en charge des développements ciblés et les tests (unitaires, non-régression). Run & fiabilité Veiller au bon fonctionnement des applications, suivre les incidents, piloter les corrections. Gérer les obsolescences techniques et planifier les remédiations. Leadership & delivery Animer les rituels (ateliers, points d’avancement), lever les blocages, arbitrer. Faire monter en compétence les équipes de développement (multi-sites). Estimer/chiffrer les solutions, tenir les jalons, produire la documentation technique . Interface & gouvernance Être l’interlocuteur privilégié des architectes pour aligner les évolutions techniques. Garantir la mise en œuvre des préconisations d’architecture au fil des releases. Environnement technique Dev & qualité : GitLab, Artifactory, Sonar Plateformes : Kubernetes , Kafka, Airflow, MapR (Flexible LakeHouse apprécié) Langages & frameworks : Python , Java (Spring), Angular , Spark , Shell Data : DB2 , PostgreSQL , Vertica , Hadoop Livrables attendus Dossiers d’architecture & schémas Pipelines CI/CD industrialisés, artefacts versionnés Code & tests (unitaires, non-régression) + documentation technique Plans de remédiation des obsolescences et comptes-rendus de qualité Notes de cadrage, chiffrages et plans de delivery
Mission freelance
Développeur Python /devops - Paris ou Orleans
Publiée le
Python
6 mois
400-420 £GB
Orléans, Centre-Val de Loire
Télétravail partiel
Développeur Python /devops ayant une double compétence en Python et DevOps pour participer à divers projets de transformation technique, notamment sur les sujets CICD et AZURE. Nous recherchons des candidats avec au moins cinq ans d'expérience en développement Python et en CI/CD. La connaissance du cloud, en particulier AZURE, est indispensable, et la maîtrise d'autres environnements cloud serait un atout. Nous avons besoin de personnes autonomes et passionnées par la technologie, car le client accorde une grande importance à cet aspect. L'équipe est très technique et dynamique. La mission est basée à Paris ou Orléans, avec la possibilité de télétravail trois jours par semaine
Mission freelance
Développeur IA LLM _ Python _ API
Publiée le
API
Python
1 an
400-550 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Développeur IA LLM Python API. Maîtrise de Python pour le backend et l'interfaçage API. Expérience avérée en développement d'API REST (FastAPI, Flask ou Django). - Intégration de LLM (Large Language Models) : Expérience pratique de l'utilisation d'APIs de modèles génératifs (OpenAI, Mistral, Anthropic, ou modèles Open Source via Hugging Face). Capacité à démontrer des travaux sur le Prompt Engineering et la structuration des sorties (Output Parsing, JSON mode). - Développement Web Fullstack: Capacité à développer et maintenir un Back-office fonctionnel en environnement PHP (Symfony) ou Javascript (Node.js/React/Vue), pour s'interfacer avec l'existant. - Frameworks d'Orchestration IA : Maîtrise de frameworks spécifiques tels que LangChain ou LlamaIndex pour gérer les chaînes de traitement. - Évaluation & Qualité (LLM Ops) : Expérience dans la mise en place de métriques pour mesurer la qualité des réponses (frameworks comme RAGAS, DeepEval, ou méthodologie de "LLM-as-a-judge"). - Conteneurisation : Autonomie sur l'usage de Docker - Architecture RAG : Connaissance des principes de Retrieval Augmented Generation (bases de données vectorielles type Qdrant, Chroma, Pgvector) - Nécessité d'avoir collaboré pour des sites médias à forte volumétrie C ompétences souhaitées : Infrastructure as Code : Capacité à lire et comprendre des scripts Terraform existants pour dialoguer efficacement avec l'équipe Ops. Conteneurisation : Connaissance de l'environnement d'exécution Kubernetes (savoir lire un fichier de déploiement, logs, exec, ). Travail en environnement agile (scrum)
Mission freelance
POT8794 - Un développeur Python /devops sur Orléans
Publiée le
Python
6 mois
Orléans, Centre-Val de Loire
Télétravail partiel
Almatek recherche pour l'un de ses clients, un développeur Python/Devops sur Orléans. Mission: participer à divers projets de transformation technique, notamment sur les sujets CICD et AZU. La connaissance du cloud, en particulier AZURE, est indispensable, et la maîtrise d'autres environnements cloud serait un atout Almatek recherche pour l'un de ses clients, un développeur Python/Devops sur Orléans. Mission: participer à divers projets de transformation technique, notamment sur les sujets CICD et AZU. La connaissance du cloud, en particulier AZURE, est indispensable, et la maîtrise d'autres environnements cloud serait un atout
Offre d'emploi
Développeur Python / Simulation & IA (H/F)
Publiée le
ERP
Rédaction technique
1 an
35k-45k €
370-470 €
Rennes, Bretagne
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) Développeur Python / Simulation & IA (H/F) pour intervenir chez l’un de nos clients. Contexte : Dans un environnement orienté R&D, vous serez intégré(e) au sein de la DSI afin de participer à la création d’un simulateur logiciel permettant de tester, comparer et optimiser des algorithmes d’apprentissage automatique dédiés au contrôle d’un bras robotisé. L’objectif : proposer un environnement de simulation robuste, modulaire et flexible , intégrant des outils issus de la théorie du contrôle et permettant l’évaluation de multiples stratégies d’apprentissage
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- SCI détenue par une Société bénéficera du taux réduit de 15 % d’IS ?
- Transfert d'activité - cession du fond de commerce
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- SASU à l'IR & ARE
- Créer une société et toucher le chômage, comment gérer ?
2102 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois