<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>Model on Producthunt daily</title>
        <link>https://producthunt.programnotes.cn/en/tags/model/</link>
        <description>Recent content in Model on Producthunt daily</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>en</language>
        <lastBuildDate>Tue, 23 Sep 2025 15:29:09 +0800</lastBuildDate><atom:link href="https://producthunt.programnotes.cn/en/tags/model/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>mindcraft</title>
        <link>https://producthunt.programnotes.cn/en/p/mindcraft/</link>
        <pubDate>Tue, 23 Sep 2025 15:29:09 +0800</pubDate>
        
        <guid>https://producthunt.programnotes.cn/en/p/mindcraft/</guid>
        <description>&lt;img src="https://images.unsplash.com/photo-1501998913911-1d69b8304eb3?ixid=M3w0NjAwMjJ8MHwxfHJhbmRvbXx8fHx8fHx8fDE3NTg2MTI0NzN8&amp;ixlib=rb-4.1.0" alt="Featured image of post mindcraft" /&gt;&lt;h1 id=&#34;mindcraft-botsmindcraft&#34;&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/mindcraft-bots/mindcraft&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;mindcraft-bots/mindcraft&lt;/a&gt;
&lt;/h1&gt;&lt;h1 id=&#34;mindcraft-&#34;&gt;Mindcraft 🧠⛏️
&lt;/h1&gt;&lt;p&gt;Crafting minds for Minecraft with LLMs and &lt;a class=&#34;link&#34; href=&#34;https://prismarinejs.github.io/mineflayer/#/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Mineflayer!&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/mindcraft-bots/mindcraft/blob/main/FAQ.md&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;FAQ&lt;/a&gt; | &lt;a class=&#34;link&#34; href=&#34;https://discord.gg/mp73p35dzC&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Discord Support&lt;/a&gt; | &lt;a class=&#34;link&#34; href=&#34;https://www.youtube.com/watch?v=gRotoL8P8D8&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Video Tutorial&lt;/a&gt; | &lt;a class=&#34;link&#34; href=&#34;https://kolbynottingham.com/mindcraft/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Blog Post&lt;/a&gt; | &lt;a class=&#34;link&#34; href=&#34;https://github.com/users/kolbytn/projects/1&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Contributor TODO&lt;/a&gt; | &lt;a class=&#34;link&#34; href=&#34;https://mindcraft-minecollab.github.io/index.html&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Paper Website&lt;/a&gt; | &lt;a class=&#34;link&#34; href=&#34;https://github.com/mindcraft-bots/mindcraft/blob/main/minecollab.md&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;MineCollab&lt;/a&gt;&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;[!Caution]
Do not connect this bot to public servers with coding enabled. This project allows an LLM to write/execute code on your computer. The code is sandboxed, but still vulnerable to injection attacks. Code writing is disabled by default, you can enable it by setting &lt;code&gt;allow_insecure_coding&lt;/code&gt; to &lt;code&gt;true&lt;/code&gt; in &lt;code&gt;settings.js&lt;/code&gt;. Ye be warned.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h2 id=&#34;requirements&#34;&gt;Requirements
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.minecraft.net/en-us/store/minecraft-java-bedrock-edition-pc&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Minecraft Java Edition&lt;/a&gt; (up to v1.21.6, recommend v1.21.1)&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://nodejs.org/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Node.js Installed&lt;/a&gt; (at least v18)&lt;/li&gt;
&lt;li&gt;One of these: &lt;a class=&#34;link&#34; href=&#34;https://openai.com/blog/openai-api&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;OpenAI API Key&lt;/a&gt; | &lt;a class=&#34;link&#34; href=&#34;https://aistudio.google.com/app/apikey&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Gemini API Key&lt;/a&gt; | &lt;a class=&#34;link&#34; href=&#34;https://docs.anthropic.com/claude/docs/getting-access-to-claude&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Anthropic API Key&lt;/a&gt; | &lt;a class=&#34;link&#34; href=&#34;https://replicate.com/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Replicate API Key&lt;/a&gt; | &lt;a class=&#34;link&#34; href=&#34;https://huggingface.co/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Hugging Face API Key&lt;/a&gt; | &lt;a class=&#34;link&#34; href=&#34;https://console.groq.com/keys&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Groq API Key&lt;/a&gt; | &lt;a class=&#34;link&#34; href=&#34;https://ollama.com/download&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Ollama Installed&lt;/a&gt;. | &lt;a class=&#34;link&#34; href=&#34;https://docs.mistral.ai/getting-started/models/models_overview/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Mistral API Key&lt;/a&gt; | &lt;a class=&#34;link&#34; href=&#34;https://www.alibabacloud.com/help/en/model-studio/developer-reference/get-api-key&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Qwen API Key [Intl.]&lt;/a&gt;/&lt;a class=&#34;link&#34; href=&#34;https://help.aliyun.com/zh/model-studio/getting-started/first-api-call-to-qwen?&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;[cn]&lt;/a&gt; | &lt;a class=&#34;link&#34; href=&#34;https://novita.ai/settings?utm_source=github_mindcraft&amp;amp;utm_medium=github_readme&amp;amp;utm_campaign=link#key-management&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Novita AI API Key&lt;/a&gt; | &lt;a class=&#34;link&#34; href=&#34;https://cloud.cerebras.ai&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Cerebras API Key&lt;/a&gt; | &lt;a class=&#34;link&#34; href=&#34;https://platform.inceptionlabs.ai/docs&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Mercury API&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;install-and-run&#34;&gt;Install and Run
&lt;/h2&gt;&lt;ol&gt;
&lt;li&gt;
&lt;p&gt;Make sure you have the requirements above.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Clone or download this repository (big green button) &amp;lsquo;git clone &lt;a class=&#34;link&#34; href=&#34;https://github.com/mindcraft-bots/mindcraft.git%27&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://github.com/mindcraft-bots/mindcraft.git&#39;&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Rename &lt;code&gt;keys.example.json&lt;/code&gt; to &lt;code&gt;keys.json&lt;/code&gt; and fill in your API keys (you only need one). The desired model is set in &lt;code&gt;andy.json&lt;/code&gt; or other profiles. For other models refer to the table below.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;In terminal/command prompt, run &lt;code&gt;npm install&lt;/code&gt; from the installed directory&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Start a minecraft world and open it to LAN on localhost port &lt;code&gt;55916&lt;/code&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Run &lt;code&gt;node main.js&lt;/code&gt; from the installed directory&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;If you encounter issues, check the &lt;a class=&#34;link&#34; href=&#34;https://github.com/mindcraft-bots/mindcraft/blob/main/FAQ.md&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;FAQ&lt;/a&gt; or find support on &lt;a class=&#34;link&#34; href=&#34;https://discord.gg/mp73p35dzC&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;discord&lt;/a&gt;. We are currently not very responsive to github issues. To run tasks please refer to &lt;a class=&#34;link&#34; href=&#34;minecollab.md#installation&#34; &gt;Minecollab Instructions&lt;/a&gt;&lt;/p&gt;
&lt;h2 id=&#34;tasks&#34;&gt;Tasks
&lt;/h2&gt;&lt;p&gt;Bot performance can be roughly evaluated with Tasks. Tasks automatically intialize bots with a goal to aquire specific items or construct predefined buildings, and remove the bot once the goal is achieved.&lt;/p&gt;
&lt;p&gt;To run tasks, you need python, pip, and optionally conda. You can then install dependencies with &lt;code&gt;pip install -r requirements.txt&lt;/code&gt;.&lt;/p&gt;
&lt;p&gt;Tasks are defined in json files in the &lt;code&gt;tasks&lt;/code&gt; folder, and can be run with: &lt;code&gt;python tasks/run_task_file.py --task_path=tasks/example_tasks.json&lt;/code&gt;&lt;/p&gt;
&lt;p&gt;For full evaluations, you will need to &lt;a class=&#34;link&#34; href=&#34;minecollab.md#installation&#34; &gt;download and install the task suite. Full instructions.&lt;/a&gt;&lt;/p&gt;
&lt;h2 id=&#34;model-customization&#34;&gt;Model Customization
&lt;/h2&gt;&lt;p&gt;You can configure project details in &lt;code&gt;settings.js&lt;/code&gt;. &lt;a class=&#34;link&#34; href=&#34;settings.js&#34; &gt;See file.&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;You can configure the agent&amp;rsquo;s name, model, and prompts in their profile like &lt;code&gt;andy.json&lt;/code&gt; with the &lt;code&gt;model&lt;/code&gt; field. For comprehensive details, see &lt;a class=&#34;link&#34; href=&#34;#model-specifications&#34; &gt;Model Specifications&lt;/a&gt;.&lt;/p&gt;
&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;API&lt;/th&gt;
          &lt;th&gt;Config Variable&lt;/th&gt;
          &lt;th&gt;Example Model name&lt;/th&gt;
          &lt;th&gt;Docs&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;openai&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;OPENAI_API_KEY&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;gpt-4o-mini&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://platform.openai.com/docs/models&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;docs&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;google&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;GEMINI_API_KEY&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;gemini-2.0-flash&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://ai.google.dev/gemini-api/docs/models/gemini&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;docs&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;anthropic&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;ANTHROPIC_API_KEY&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;claude-3-haiku-20240307&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://docs.anthropic.com/claude/docs/models-overview&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;docs&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;xai&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;XAI_API_KEY&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;grok-2-1212&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://docs.x.ai/docs&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;docs&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;deepseek&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;DEEPSEEK_API_KEY&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;deepseek-chat&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://api-docs.deepseek.com/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;docs&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;ollama&lt;/code&gt; (local)&lt;/td&gt;
          &lt;td&gt;n/a&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;ollama/sweaterdog/andy-4:micro-q8_0&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://ollama.com/library&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;docs&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;qwen&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;QWEN_API_KEY&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;qwen-max&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.alibabacloud.com/help/en/model-studio/developer-reference/use-qwen-by-calling-api&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Intl.&lt;/a&gt;/&lt;a class=&#34;link&#34; href=&#34;https://help.aliyun.com/zh/model-studio/getting-started/models&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;cn&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;mistral&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;MISTRAL_API_KEY&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;mistral-large-latest&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://docs.mistral.ai/getting-started/models/models_overview/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;docs&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;replicate&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;REPLICATE_API_KEY&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;replicate/meta/meta-llama-3-70b-instruct&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://replicate.com/collections/language-models&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;docs&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;groq&lt;/code&gt; (not grok)&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;GROQCLOUD_API_KEY&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;groq/mixtral-8x7b-32768&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://console.groq.com/docs/models&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;docs&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;huggingface&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;HUGGINGFACE_API_KEY&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;huggingface/mistralai/Mistral-Nemo-Instruct-2407&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://huggingface.co/models&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;docs&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;novita&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;NOVITA_API_KEY&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;novita/deepseek/deepseek-r1&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://novita.ai/model-api/product/llm-api?utm_source=github_mindcraft&amp;amp;utm_medium=github_readme&amp;amp;utm_campaign=link&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;docs&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;openrouter&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;OPENROUTER_API_KEY&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;openrouter/anthropic/claude-3.5-sonnet&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://openrouter.ai/models&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;docs&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;glhf.chat&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;GHLF_API_KEY&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;glhf/hf:meta-llama/Llama-3.1-405B-Instruct&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://glhf.chat/user-settings/api&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;docs&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;hyperbolic&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;HYPERBOLIC_API_KEY&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;hyperbolic/deepseek-ai/DeepSeek-V3&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://docs.hyperbolic.xyz/docs/getting-started&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;docs&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;vllm&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;n/a&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;vllm/llama3&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;n/a&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;cerebras&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;CEREBRAS_API_KEY&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;cerebras/llama-3.3-70b&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://inference-docs.cerebras.ai/introduction&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;docs&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;mercury&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;MERCURY_API_KEY&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;code&gt;mercury-coder-small&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.inceptionlabs.ai/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;docs&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;If you use Ollama, to install the models used by default (generation and embedding), execute the following terminal command:
&lt;code&gt;ollama pull sweaterdog/andy-4:micro-q8_0 &amp;amp;&amp;amp; ollama pull embeddinggemma&lt;/code&gt;&lt;/p&gt;
&lt;p&gt;To use Azure, you can reuse the &lt;code&gt;OPENAI_API_KEY&lt;/code&gt; environment variable. You can get the key from the Azure portal. See &lt;a class=&#34;link&#34; href=&#34;profiles/azure.json&#34; &gt;azure.json&lt;/a&gt; for an example.&lt;/p&gt;
&lt;h3 id=&#34;online-servers&#34;&gt;Online Servers
&lt;/h3&gt;&lt;p&gt;To connect to online servers your bot will need an official Microsoft/Minecraft account. You can use your own personal one, but will need another account if you want to connect too and play with it. To connect, change these lines in &lt;code&gt;settings.js&lt;/code&gt;:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;3
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;4
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;5
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-javascript&#34; data-lang=&#34;javascript&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;s2&#34;&gt;&amp;#34;host&amp;#34;&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;111.222.333.444&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;s2&#34;&gt;&amp;#34;port&amp;#34;&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;mi&#34;&gt;55920&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;s2&#34;&gt;&amp;#34;auth&amp;#34;&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;microsoft&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;c1&#34;&gt;// rest is same...
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;blockquote&gt;
&lt;p&gt;[!Important]
The bot&amp;rsquo;s name in the profile.json must exactly match the Minecraft profile name! Otherwise the bot will spam talk to itself.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;To use different accounts, Mindcraft will connect with the account that the Minecraft launcher is currently using. You can switch accounts in the launcer, then run &lt;code&gt;node main.js&lt;/code&gt;, then switch to your main account after the bot has connected.&lt;/p&gt;
&lt;h3 id=&#34;docker-container&#34;&gt;Docker Container
&lt;/h3&gt;&lt;p&gt;If you intend to &lt;code&gt;allow_insecure_coding&lt;/code&gt;, it is a good idea to run the app in a docker container to reduce risks of running unknown code. This is strongly recommended before connecting to remote servers.&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;docker run -i -t --rm -v &lt;span class=&#34;k&#34;&gt;$(&lt;/span&gt;&lt;span class=&#34;nb&#34;&gt;pwd&lt;/span&gt;&lt;span class=&#34;k&#34;&gt;)&lt;/span&gt;:/app -w /app -p 3000-3003:3000-3003 node:latest node main.js
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;or simply&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;docker-compose up
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;When running in docker, if you want the bot to join your local minecraft server, you have to use a special host address &lt;code&gt;host.docker.internal&lt;/code&gt; to call your localhost from inside your docker container. Put this into your &lt;a class=&#34;link&#34; href=&#34;settings.js&#34; &gt;settings.js&lt;/a&gt;:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-javascript&#34; data-lang=&#34;javascript&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;s2&#34;&gt;&amp;#34;host&amp;#34;&lt;/span&gt;&lt;span class=&#34;o&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;host.docker.internal&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt; &lt;span class=&#34;c1&#34;&gt;// instead of &amp;#34;localhost&amp;#34;, to join your local minecraft from inside the docker container
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;To connect to an unsupported minecraft version, you can try to use &lt;a class=&#34;link&#34; href=&#34;services/viaproxy/README.md&#34; &gt;viaproxy&lt;/a&gt;&lt;/p&gt;
&lt;h1 id=&#34;bot-profiles&#34;&gt;Bot Profiles
&lt;/h1&gt;&lt;p&gt;Bot profiles are json files (such as &lt;code&gt;andy.json&lt;/code&gt;) that define:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;Bot backend LLMs to use for talking, coding, and embedding.&lt;/li&gt;
&lt;li&gt;Prompts used to influence the bot&amp;rsquo;s behavior.&lt;/li&gt;
&lt;li&gt;Examples help the bot perform tasks.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;model-specifications&#34;&gt;Model Specifications
&lt;/h2&gt;&lt;p&gt;LLM models can be specified simply as &lt;code&gt;&amp;quot;model&amp;quot;: &amp;quot;gpt-4o&amp;quot;&lt;/code&gt;. However, you can use different models for chat, coding, and embeddings.
You can pass a string or an object for these fields. A model object must specify an &lt;code&gt;api&lt;/code&gt;, and optionally a &lt;code&gt;model&lt;/code&gt;, &lt;code&gt;url&lt;/code&gt;, and additional &lt;code&gt;params&lt;/code&gt;.&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt; 1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt; 2
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt; 3
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt; 4
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt; 5
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt; 6
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt; 7
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt; 8
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt; 9
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;10
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;11
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;12
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;13
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;14
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;15
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;16
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;17
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;18
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;19
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;20
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;21
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;22
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;23
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;24
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;25
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;26
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;27
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;28
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;29
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;30
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-json&#34; data-lang=&#34;json&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;s2&#34;&gt;&amp;#34;model&amp;#34;&lt;/span&gt;&lt;span class=&#34;err&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;p&#34;&gt;{&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;nt&#34;&gt;&amp;#34;api&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;openai&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;nt&#34;&gt;&amp;#34;model&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;gpt-4o&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;nt&#34;&gt;&amp;#34;url&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;https://api.openai.com/v1/&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;nt&#34;&gt;&amp;#34;params&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;p&#34;&gt;{&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;    &lt;span class=&#34;nt&#34;&gt;&amp;#34;max_tokens&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;mi&#34;&gt;1000&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;    &lt;span class=&#34;nt&#34;&gt;&amp;#34;temperature&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;mi&#34;&gt;1&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;p&#34;&gt;}&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;p&#34;&gt;}&lt;/span&gt;&lt;span class=&#34;err&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;s2&#34;&gt;&amp;#34;code_model&amp;#34;&lt;/span&gt;&lt;span class=&#34;err&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;p&#34;&gt;{&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;nt&#34;&gt;&amp;#34;api&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;openai&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;nt&#34;&gt;&amp;#34;model&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;gpt-4&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;nt&#34;&gt;&amp;#34;url&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;https://api.openai.com/v1/&amp;#34;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;p&#34;&gt;}&lt;/span&gt;&lt;span class=&#34;err&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;s2&#34;&gt;&amp;#34;vision_model&amp;#34;&lt;/span&gt;&lt;span class=&#34;err&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;p&#34;&gt;{&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;nt&#34;&gt;&amp;#34;api&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;openai&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;nt&#34;&gt;&amp;#34;model&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;gpt-4o&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;nt&#34;&gt;&amp;#34;url&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;https://api.openai.com/v1/&amp;#34;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;p&#34;&gt;}&lt;/span&gt;&lt;span class=&#34;err&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;s2&#34;&gt;&amp;#34;embedding&amp;#34;&lt;/span&gt;&lt;span class=&#34;err&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;p&#34;&gt;{&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;nt&#34;&gt;&amp;#34;api&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;openai&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;nt&#34;&gt;&amp;#34;url&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;https://api.openai.com/v1/&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;nt&#34;&gt;&amp;#34;model&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;text-embedding-ada-002&amp;#34;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;p&#34;&gt;}&lt;/span&gt;&lt;span class=&#34;err&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;s2&#34;&gt;&amp;#34;speak_model&amp;#34;&lt;/span&gt;&lt;span class=&#34;err&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;p&#34;&gt;{&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;nt&#34;&gt;&amp;#34;api&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;openai&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;nt&#34;&gt;&amp;#34;url&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;https://api.openai.com/v1/&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;nt&#34;&gt;&amp;#34;model&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;tts-1&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;,&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  &lt;span class=&#34;nt&#34;&gt;&amp;#34;voice&amp;#34;&lt;/span&gt;&lt;span class=&#34;p&#34;&gt;:&lt;/span&gt; &lt;span class=&#34;s2&#34;&gt;&amp;#34;echo&amp;#34;&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;p&#34;&gt;}&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;&lt;code&gt;model&lt;/code&gt; is used for chat, &lt;code&gt;code_model&lt;/code&gt; is used for newAction coding, &lt;code&gt;vision_model&lt;/code&gt; is used for image interpretation, and &lt;code&gt;embedding&lt;/code&gt; is used to embed text for example selection. If &lt;code&gt;code_model&lt;/code&gt; or &lt;code&gt;vision_model&lt;/code&gt; is not specified, &lt;code&gt;model&lt;/code&gt; will be used by default. Not all APIs support embeddings or vision.&lt;/p&gt;
&lt;p&gt;All apis have default models and urls, so those fields are optional. The &lt;code&gt;params&lt;/code&gt; field is optional and can be used to specify additional parameters for the model. It accepts any key-value pairs supported by the api. Is not supported for embedding models.&lt;/p&gt;
&lt;h2 id=&#34;embedding-models&#34;&gt;Embedding Models
&lt;/h2&gt;&lt;p&gt;Embedding models are used to embed and efficiently select relevant examples for conversation and coding.&lt;/p&gt;
&lt;p&gt;Supported Embedding APIs: &lt;code&gt;openai&lt;/code&gt;, &lt;code&gt;google&lt;/code&gt;, &lt;code&gt;replicate&lt;/code&gt;, &lt;code&gt;huggingface&lt;/code&gt;, &lt;code&gt;novita&lt;/code&gt;&lt;/p&gt;
&lt;p&gt;If you try to use an unsupported model, then it will default to a simple word-overlap method. Expect reduced performance, recommend mixing APIs to ensure embedding support.&lt;/p&gt;
&lt;h2 id=&#34;specifying-profiles-via-command-line&#34;&gt;Specifying Profiles via Command Line
&lt;/h2&gt;&lt;p&gt;By default, the program will use the profiles specified in &lt;code&gt;settings.js&lt;/code&gt;. You can specify one or more agent profiles using the &lt;code&gt;--profiles&lt;/code&gt; argument: &lt;code&gt;node main.js --profiles ./profiles/andy.json ./profiles/jill.json&lt;/code&gt;&lt;/p&gt;
&lt;h2 id=&#34;patches&#34;&gt;Patches
&lt;/h2&gt;&lt;p&gt;Some of the node modules that we depend on have bugs in them. To add a patch, change your local node module file and run &lt;code&gt;npx patch-package [package-name]&lt;/code&gt;&lt;/p&gt;
&lt;h2 id=&#34;citation&#34;&gt;Citation:
&lt;/h2&gt;&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;3
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;4
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;5
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;6
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;7
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-fallback&#34; data-lang=&#34;fallback&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;@article{mindcraft2025,
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  title = {Collaborating Action by Action: A Multi-agent LLM Framework for Embodied Reasoning},
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  author = {White*, Isadora and Nottingham*, Kolby and Maniar, Ayush and Robinson, Max and Lillemark, Hansen and Maheshwari, Mehul and Qin, Lianhui and Ammanabrolu, Prithviraj},
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  journal = {arXiv preprint arXiv:2504.17950},
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  year = {2025},
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;  url = {https://arxiv.org/abs/2504.17950},
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;}
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;</description>
        </item>
        <item>
        <title>rails</title>
        <link>https://producthunt.programnotes.cn/en/p/rails/</link>
        <pubDate>Sun, 07 Sep 2025 15:24:20 +0800</pubDate>
        
        <guid>https://producthunt.programnotes.cn/en/p/rails/</guid>
        <description>&lt;img src="https://images.unsplash.com/photo-1708917880580-a6bea5c232a1?ixid=M3w0NjAwMjJ8MHwxfHJhbmRvbXx8fHx8fHx8fDE3NTcyMjk4MjZ8&amp;ixlib=rb-4.1.0" alt="Featured image of post rails" /&gt;&lt;h1 id=&#34;railsrails&#34;&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/rails/rails&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;rails/rails&lt;/a&gt;
&lt;/h1&gt;&lt;h1 id=&#34;welcome-to-rails&#34;&gt;Welcome to Rails
&lt;/h1&gt;&lt;h2 id=&#34;whats-rails&#34;&gt;What&amp;rsquo;s Rails?
&lt;/h2&gt;&lt;p&gt;Rails is a web-application framework that includes everything needed to
create database-backed web applications according to the
&lt;a class=&#34;link&#34; href=&#34;https://en.wikipedia.org/wiki/Model-view-controller&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Model-View-Controller (MVC)&lt;/a&gt;
pattern.&lt;/p&gt;
&lt;p&gt;Understanding the MVC pattern is key to understanding Rails. MVC divides your
application into three layers: Model, View, and Controller, each with a specific responsibility.&lt;/p&gt;
&lt;h2 id=&#34;model-layer&#34;&gt;Model layer
&lt;/h2&gt;&lt;p&gt;The &lt;em&gt;&lt;strong&gt;Model layer&lt;/strong&gt;&lt;/em&gt; represents the domain model (such as Account, Product,
Person, Post, etc.) and encapsulates the business logic specific to
your application. In Rails, database-backed model classes are derived from
&lt;code&gt;ActiveRecord::Base&lt;/code&gt;. &lt;a class=&#34;link&#34; href=&#34;activerecord/README.rdoc&#34; &gt;Active Record&lt;/a&gt; allows you to present the data from
database rows as objects and embellish these data objects with business logic
methods.
Although most Rails models are backed by a database, models can also be ordinary
Ruby classes, or Ruby classes that implement a set of interfaces as provided by
the &lt;a class=&#34;link&#34; href=&#34;activemodel/README.rdoc&#34; &gt;Active Model&lt;/a&gt; module.&lt;/p&gt;
&lt;h2 id=&#34;view-layer&#34;&gt;View layer
&lt;/h2&gt;&lt;p&gt;The &lt;em&gt;&lt;strong&gt;View layer&lt;/strong&gt;&lt;/em&gt; is composed of &amp;ldquo;templates&amp;rdquo; that are responsible for providing
appropriate representations of your application&amp;rsquo;s resources. Templates can
come in a variety of formats, but most view templates are HTML with embedded
Ruby code (ERB files). Views are typically rendered to generate a controller response
or to generate the body of an email. In Rails, View generation is handled by &lt;a class=&#34;link&#34; href=&#34;actionview/README.rdoc&#34; &gt;Action View&lt;/a&gt;.&lt;/p&gt;
&lt;h2 id=&#34;controller-layer&#34;&gt;Controller layer
&lt;/h2&gt;&lt;p&gt;The &lt;em&gt;&lt;strong&gt;Controller layer&lt;/strong&gt;&lt;/em&gt; is responsible for handling incoming HTTP requests and
providing a suitable response. Usually, this means returning HTML, but Rails controllers
can also generate XML, JSON, PDFs, mobile-specific views, and more. Controllers load and
manipulate models, and render view templates in order to generate the appropriate HTTP response.
In Rails, incoming requests are routed by Action Dispatch to an appropriate controller, and
controller classes are derived from &lt;code&gt;ActionController::Base&lt;/code&gt;. Action Dispatch and Action Controller
are bundled together in &lt;a class=&#34;link&#34; href=&#34;actionpack/README.rdoc&#34; &gt;Action Pack&lt;/a&gt;.&lt;/p&gt;
&lt;h2 id=&#34;frameworks-and-libraries&#34;&gt;Frameworks and libraries
&lt;/h2&gt;&lt;p&gt;&lt;a class=&#34;link&#34; href=&#34;activerecord/README.rdoc&#34; &gt;Active Record&lt;/a&gt;, &lt;a class=&#34;link&#34; href=&#34;activemodel/README.rdoc&#34; &gt;Active Model&lt;/a&gt;, &lt;a class=&#34;link&#34; href=&#34;actionpack/README.rdoc&#34; &gt;Action Pack&lt;/a&gt;, and &lt;a class=&#34;link&#34; href=&#34;actionview/README.rdoc&#34; &gt;Action View&lt;/a&gt; can each be used independently outside Rails.&lt;/p&gt;
&lt;p&gt;In addition to that, Rails also comes with:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;actionmailer/README.rdoc&#34; &gt;Action Mailer&lt;/a&gt;, a library to generate and send emails&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;actionmailbox/README.md&#34; &gt;Action Mailbox&lt;/a&gt;, a library to receive emails within a Rails application&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;activejob/README.md&#34; &gt;Active Job&lt;/a&gt;, a framework for declaring jobs and making them run on a variety of queuing backends&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;actioncable/README.md&#34; &gt;Action Cable&lt;/a&gt;, a framework to integrate WebSockets with a Rails application&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;activestorage/README.md&#34; &gt;Active Storage&lt;/a&gt;, a library to attach cloud and local files to Rails applications&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;actiontext/README.md&#34; &gt;Action Text&lt;/a&gt;, a library to handle rich text content&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;activesupport/README.rdoc&#34; &gt;Active Support&lt;/a&gt;, a collection of utility classes and standard library extensions that are useful for Rails, and may also be used independently outside Rails&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;getting-started&#34;&gt;Getting Started
&lt;/h2&gt;&lt;ol&gt;
&lt;li&gt;
&lt;p&gt;Install Rails at the command prompt if you haven&amp;rsquo;t yet:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;$ gem install rails
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;At the command prompt, create a new Rails application:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;$ rails new myapp
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;where &amp;ldquo;myapp&amp;rdquo; is the application name.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Change directory to &lt;code&gt;myapp&lt;/code&gt; and start the web server:&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;span class=&#34;lnt&#34;&gt;2
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;$ &lt;span class=&#34;nb&#34;&gt;cd&lt;/span&gt; myapp
&lt;/span&gt;&lt;/span&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;$ bin/rails server
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;Run with &lt;code&gt;--help&lt;/code&gt; or &lt;code&gt;-h&lt;/code&gt; for options.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Go to &lt;code&gt;http://localhost:3000&lt;/code&gt; and you&amp;rsquo;ll see the Rails bootscreen with your Rails and Ruby versions.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Follow the guidelines to start developing your application. You may find
the following resources handy:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://guides.rubyonrails.org/getting_started.html&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Getting Started with Rails&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://guides.rubyonrails.org&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Ruby on Rails Guides&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://api.rubyonrails.org&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;The API Documentation&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;contributing&#34;&gt;Contributing
&lt;/h2&gt;&lt;p&gt;We encourage you to contribute to Ruby on Rails! Please check out the
&lt;a class=&#34;link&#34; href=&#34;https://edgeguides.rubyonrails.org/contributing_to_ruby_on_rails.html&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Contributing to Ruby on Rails guide&lt;/a&gt; for guidelines about how to proceed. &lt;a class=&#34;link&#34; href=&#34;https://contributors.rubyonrails.org&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Join us!&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Trying to report a possible security vulnerability in Rails? Please
check out our &lt;a class=&#34;link&#34; href=&#34;https://rubyonrails.org/security&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;security policy&lt;/a&gt; for
guidelines about how to proceed.&lt;/p&gt;
&lt;p&gt;Everyone interacting in Rails and its sub-projects&amp;rsquo; codebases, issue trackers, chat rooms, and mailing lists is expected to follow the Rails &lt;a class=&#34;link&#34; href=&#34;https://rubyonrails.org/conduct&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;code of conduct&lt;/a&gt;.&lt;/p&gt;
&lt;h2 id=&#34;license&#34;&gt;License
&lt;/h2&gt;&lt;p&gt;Ruby on Rails is released under the &lt;a class=&#34;link&#34; href=&#34;https://opensource.org/licenses/MIT&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;MIT License&lt;/a&gt;.&lt;/p&gt;
</description>
        </item>
        <item>
        <title>Product Hunt Daily | 2025-07-08</title>
        <link>https://producthunt.programnotes.cn/en/p/product-hunt-daily-2025-07-08/</link>
        <pubDate>Tue, 08 Jul 2025 07:31:23 +0000</pubDate>
        
        <guid>https://producthunt.programnotes.cn/en/p/product-hunt-daily-2025-07-08/</guid>
        <description>&lt;img src="https://ph-files.imgix.net/307ba6d2-5b09-4534-a7f4-5725e6633006.png?auto=format&amp;fit=crop&amp;frame=1&amp;h=512&amp;w=1024" alt="Featured image of post Product Hunt Daily | 2025-07-08" /&gt;&lt;h2 id=&#34;1-tensorblock-forge&#34;&gt;1. TensorBlock Forge
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;Tagline&lt;/strong&gt;: One API for all AI models&lt;br&gt;
&lt;strong&gt;Description&lt;/strong&gt;: Forge is the fast, secure way to connect and run AI models across providers—no more fragmented tools or infrastructure headaches. Just 3 lines of code to switch. OpenAI-compatible. Privacy-first.&lt;br&gt;
&lt;strong&gt;Website&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/r/UIOGJGORNJGBM3?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;open&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;Product Hunt&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/products/tensorblock-forge?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;View on Product Hunt&lt;/a&gt;&lt;br&gt;
&lt;img src=&#34;https://ph-files.imgix.net/307ba6d2-5b09-4534-a7f4-5725e6633006.png?auto=format&amp;amp;fit=crop&amp;amp;frame=1&amp;amp;h=512&amp;amp;w=1024&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;TensorBlock Forge&#34;
	
	
&gt;&lt;br&gt;
&lt;strong&gt;Keyword&lt;/strong&gt;: AI, model, API, machine learning, ML, deep learning, TensorBlock, Forge, OpenAI, multi-cloud, AI platform, model deployment, model management,  privacy&lt;br&gt;
&lt;strong&gt;VotesCount&lt;/strong&gt;: 🔺705&lt;br&gt;
&lt;strong&gt;Featured&lt;/strong&gt;: Yes&lt;br&gt;
&lt;strong&gt;CreatedAt&lt;/strong&gt;: 2025-07-07 07:01 AM (UTC)&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;2-stepfun-diligence-check&#34;&gt;2. Stepfun Diligence Check
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;Tagline&lt;/strong&gt;: AI-powered search with agent-verified citations&lt;br&gt;
&lt;strong&gt;Description&lt;/strong&gt;: StepFun Diligence Check tells you what’s credible — and what’s not. By tracing citations to their sources and validating them with a multi-agent system, it helps you cut through doubt and misinformation.&lt;br&gt;
&lt;strong&gt;Website&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/r/W5M3NYNBWIDCBZ?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;open&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;Product Hunt&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/products/stepfun?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;View on Product Hunt&lt;/a&gt;&lt;br&gt;
&lt;img src=&#34;https://ph-files.imgix.net/521c407f-3dee-4924-882b-ada4d79e0b99.png?auto=format&amp;amp;fit=crop&amp;amp;frame=1&amp;amp;h=512&amp;amp;w=1024&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;Stepfun Diligence Check&#34;
	
	
&gt;&lt;br&gt;
&lt;strong&gt;Keyword&lt;/strong&gt;: AI-powered search, citation verification, fact-checking, credibility check, source validation, misinformation detection, due diligence, research tool, agent-verified, multi-agent system&lt;br&gt;
&lt;strong&gt;VotesCount&lt;/strong&gt;: 🔺670&lt;br&gt;
&lt;strong&gt;Featured&lt;/strong&gt;: Yes&lt;br&gt;
&lt;strong&gt;CreatedAt&lt;/strong&gt;: 2025-07-07 07:01 AM (UTC)&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;3-sara-the-ai-interviewer&#34;&gt;3. Sara, the AI Interviewer
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;Tagline&lt;/strong&gt;: Hire 10X faster. Unbiased structured interviews, 24/7.&lt;br&gt;
&lt;strong&gt;Description&lt;/strong&gt;: Sara is an AI teammate that conducts unbiased voice interviews in 50+ languages, reverse-engineers any job description, scores 100+ technical &amp;amp; behavioral signals, and delivers shareable reports in minutes — so you hire in days, not weeks.&lt;br&gt;
&lt;strong&gt;Website&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/r/ED2ZNITDJEZMCU?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;open&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;Product Hunt&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/products/sara-the-ai-interviewer?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;View on Product Hunt&lt;/a&gt;&lt;br&gt;
&lt;img src=&#34;https://ph-files.imgix.net/3f720b1a-6e57-4071-af9c-160e64236a3f.jpeg?auto=format&amp;amp;fit=crop&amp;amp;frame=1&amp;amp;h=512&amp;amp;w=1024&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;Sara, the AI Interviewer&#34;
	
	
&gt;&lt;br&gt;
&lt;strong&gt;Keyword&lt;/strong&gt;: AI Interviewer, AI Hiring, Structured Interviews, Unbiased Interviews, Automated Interviews,  Recruitment AI,  Faster Hiring,  24/7 Interviewing,  Candidate Screening,  Interview Scoring,  AI Recruiting,  Talent Acquisition,  HR Tech&lt;br&gt;
&lt;strong&gt;VotesCount&lt;/strong&gt;: 🔺334&lt;br&gt;
&lt;strong&gt;Featured&lt;/strong&gt;: Yes&lt;br&gt;
&lt;strong&gt;CreatedAt&lt;/strong&gt;: 2025-07-07 07:01 AM (UTC)&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;4-context&#34;&gt;4. Context
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;Tagline&lt;/strong&gt;: The AI office suite&lt;br&gt;
&lt;strong&gt;Description&lt;/strong&gt;: Context is the first AI Office Suite that automates your workflow by creating documents, presentations, spreadsheets, and more using your data, tools, and style.&lt;br&gt;
&lt;strong&gt;Website&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/r/BLBOPBTASNLIZ2?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;open&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;Product Hunt&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/products/context-8?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;View on Product Hunt&lt;/a&gt;&lt;br&gt;
&lt;img src=&#34;https://ph-files.imgix.net/6616ea7f-4602-4122-8ce1-b0d547880313.png?auto=format&amp;amp;fit=crop&amp;amp;frame=1&amp;amp;h=512&amp;amp;w=1024&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;Context&#34;
	
	
&gt;&lt;br&gt;
&lt;strong&gt;Keyword&lt;/strong&gt;: AI Office Suite, Context AI, AI productivity, Automated Documents, AI Presentations, AI Spreadsheets, Workflow Automation, AI writing tools&lt;br&gt;
&lt;strong&gt;VotesCount&lt;/strong&gt;: 🔺323&lt;br&gt;
&lt;strong&gt;Featured&lt;/strong&gt;: Yes&lt;br&gt;
&lt;strong&gt;CreatedAt&lt;/strong&gt;: 2025-07-07 07:01 AM (UTC)&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;5-blogwald&#34;&gt;5. Blogwald
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;Tagline&lt;/strong&gt;: Structure content for llms and search engines&lt;br&gt;
&lt;strong&gt;Description&lt;/strong&gt;: Blogwald helps you publish authoritative content structured for how AI models and search engines rank, reason, and recommend.&lt;br&gt;
&lt;strong&gt;Website&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/r/Q7JXX6CPIOHZZA?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;open&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;Product Hunt&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/products/blogwald?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;View on Product Hunt&lt;/a&gt;&lt;br&gt;
&lt;img src=&#34;https://ph-files.imgix.net/e0666f5d-48cd-49e9-83bd-8ef66ca91e71.png?auto=format&amp;amp;fit=crop&amp;amp;frame=1&amp;amp;h=512&amp;amp;w=1024&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;Blogwald&#34;
	
	
&gt;&lt;br&gt;
&lt;strong&gt;Keyword&lt;/strong&gt;: SEO, AI content, content optimization, LLM optimization, content structure, blog writing, website content, search engine optimization, AI writing, content strategy&lt;br&gt;
&lt;strong&gt;VotesCount&lt;/strong&gt;: 🔺245&lt;br&gt;
&lt;strong&gt;Featured&lt;/strong&gt;: Yes&lt;br&gt;
&lt;strong&gt;CreatedAt&lt;/strong&gt;: 2025-07-07 07:01 AM (UTC)&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;6-voicebun&#34;&gt;6. Voicebun
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;Tagline&lt;/strong&gt;: Build voice agents in seconds&lt;br&gt;
&lt;strong&gt;Description&lt;/strong&gt;: Build smart voice agents in minutes — no code needed. Automate calls, support, and scheduling with powerful AI workflows.&lt;br&gt;
&lt;strong&gt;Website&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/r/I4XMFZQKR7YFNG?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;open&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;Product Hunt&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/products/voicebun?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;View on Product Hunt&lt;/a&gt;&lt;br&gt;
&lt;img src=&#34;https://ph-files.imgix.net/88227788-bf4c-4fc1-86c7-2fd17e64b500.png?auto=format&amp;amp;fit=crop&amp;amp;frame=1&amp;amp;h=512&amp;amp;w=1024&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;Voicebun&#34;
	
	
&gt;&lt;br&gt;
&lt;strong&gt;Keyword&lt;/strong&gt;: voice agent, voice automation, no-code, AI workflow, call automation, appointment scheduling, voice support&lt;br&gt;
&lt;strong&gt;VotesCount&lt;/strong&gt;: 🔺226&lt;br&gt;
&lt;strong&gt;Featured&lt;/strong&gt;: Yes&lt;br&gt;
&lt;strong&gt;CreatedAt&lt;/strong&gt;: 2025-07-07 07:01 AM (UTC)&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;7-onenode&#34;&gt;7. OneNode
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;Tagline&lt;/strong&gt;: Simplest backend for AI coding - Open source&lt;br&gt;
&lt;strong&gt;Description&lt;/strong&gt;: OneNode is the simplest backend for AI coding. The backend development doesn&amp;rsquo;t have to be complicated anymore.&lt;br&gt;
&lt;strong&gt;Website&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/r/SX4SP3MJFFN27S?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;open&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;Product Hunt&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/products/onenode?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;View on Product Hunt&lt;/a&gt;&lt;br&gt;
&lt;img src=&#34;https://ph-files.imgix.net/51e68aa0-f2b2-4b01-84c4-f8a2867d4027.png?auto=format&amp;amp;fit=crop&amp;amp;frame=1&amp;amp;h=512&amp;amp;w=1024&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;OneNode&#34;
	
	
&gt;&lt;br&gt;
&lt;strong&gt;Keyword&lt;/strong&gt;: OneNode, AI backend, open source backend, simple backend, AI coding, backend development, machine learning backend&lt;br&gt;
&lt;strong&gt;VotesCount&lt;/strong&gt;: 🔺204&lt;br&gt;
&lt;strong&gt;Featured&lt;/strong&gt;: Yes&lt;br&gt;
&lt;strong&gt;CreatedAt&lt;/strong&gt;: 2025-07-07 07:01 AM (UTC)&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;8-jukebox&#34;&gt;8. Jukebox
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;Tagline&lt;/strong&gt;: Free alternative to Spotify collaborative playlists&lt;br&gt;
&lt;strong&gt;Description&lt;/strong&gt;: Never fight over the aux again! To use, create a &amp;ldquo;box&amp;rdquo; then share a link with friends so they can add songs. It&amp;rsquo;s fair, so if person A adds two songs and person B adds one, B&amp;rsquo;s song goes between A&amp;rsquo;s. Scales infinitely!&lt;br&gt;
&lt;strong&gt;Website&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/r/BZ76U67PFFQ5MQ?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;open&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;Product Hunt&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/products/jukebox-6?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;View on Product Hunt&lt;/a&gt;&lt;br&gt;
&lt;img src=&#34;https://ph-files.imgix.net/ada55e8c-4fce-4d29-aa07-949d22869a9d.png?auto=format&amp;amp;fit=crop&amp;amp;frame=1&amp;amp;h=512&amp;amp;w=1024&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;Jukebox&#34;
	
	
&gt;&lt;br&gt;
&lt;strong&gt;Keyword&lt;/strong&gt;: Collaborative playlist, music playlist, shared playlist, group playlist, aux cord alternative, music sharing, Spotify alternative, collaborative music, online jukebox, music collaboration&lt;br&gt;
&lt;strong&gt;VotesCount&lt;/strong&gt;: 🔺200&lt;br&gt;
&lt;strong&gt;Featured&lt;/strong&gt;: Yes&lt;br&gt;
&lt;strong&gt;CreatedAt&lt;/strong&gt;: 2025-07-07 07:01 AM (UTC)&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;9-dockfix&#34;&gt;9. DockFix
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;Tagline&lt;/strong&gt;: Customize your macOS dock like never before&lt;br&gt;
&lt;strong&gt;Description&lt;/strong&gt;: DockFix is the ultimate Mac Dock replacement for extra customization, powerful features, and a productivity boost. Download now! This update features an exciting new workflows feature that will truly reimagine the way you use your Mac, along with much more.&lt;br&gt;
&lt;strong&gt;Website&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/r/7N2F6CIMRU6CNM?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;open&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;Product Hunt&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/products/dockfix?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;View on Product Hunt&lt;/a&gt;&lt;br&gt;
&lt;img src=&#34;https://ph-files.imgix.net/d8014039-4310-4682-8b14-f6489bbc4152.webp?auto=format&amp;amp;fit=crop&amp;amp;frame=1&amp;amp;h=512&amp;amp;w=1024&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;DockFix&#34;
	
	
&gt;&lt;br&gt;
&lt;strong&gt;Keyword&lt;/strong&gt;: macOS, Dock, Dock customization, Mac Dock, Dock replacement, Mac productivity, workflow, customization&lt;br&gt;
&lt;strong&gt;VotesCount&lt;/strong&gt;: 🔺167&lt;br&gt;
&lt;strong&gt;Featured&lt;/strong&gt;: Yes&lt;br&gt;
&lt;strong&gt;CreatedAt&lt;/strong&gt;: 2025-07-07 07:01 AM (UTC)&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id=&#34;10-iconize-folder&#34;&gt;10. Iconize Folder
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;Tagline&lt;/strong&gt;:  Customize folder color &amp;amp; icon &amp;amp; text&lt;br&gt;
&lt;strong&gt;Description&lt;/strong&gt;: Iconize Folder is a tool that lets you easily customize folder colors, icons, and text to enhance visual appeal and improve file management efficiency.&lt;br&gt;
&lt;strong&gt;Website&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/r/LWPZQYGRAFSEPH?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;open&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;Product Hunt&lt;/strong&gt;: &lt;a class=&#34;link&#34; href=&#34;https://www.producthunt.com/products/iconize-folder?utm_campaign=producthunt-api&amp;amp;utm_medium=api-v2&amp;amp;utm_source=Application%3A&amp;#43;weekly&amp;#43;%28ID%3A&amp;#43;148189%29&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;View on Product Hunt&lt;/a&gt;&lt;br&gt;
&lt;img src=&#34;https://ph-files.imgix.net/e20e7ad3-68ec-4333-b93c-107cd0769661.png?auto=format&amp;amp;fit=crop&amp;amp;frame=1&amp;amp;h=512&amp;amp;w=1024&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;Iconize Folder&#34;
	
	
&gt;&lt;br&gt;
&lt;strong&gt;Keyword&lt;/strong&gt;: Folder Icon, Customize Folder, Color Folders, Iconize, Folder Color, Change Folder Icon, Folder Customization, File Management&lt;br&gt;
&lt;strong&gt;VotesCount&lt;/strong&gt;: 🔺130&lt;br&gt;
&lt;strong&gt;Featured&lt;/strong&gt;: Yes&lt;br&gt;
&lt;strong&gt;CreatedAt&lt;/strong&gt;: 2025-07-07 07:01 AM (UTC)&lt;/p&gt;
&lt;hr&gt;
</description>
        </item>
        <item>
        <title>void</title>
        <link>https://producthunt.programnotes.cn/en/p/void/</link>
        <pubDate>Tue, 24 Jun 2025 15:30:22 +0800</pubDate>
        
        <guid>https://producthunt.programnotes.cn/en/p/void/</guid>
        <description>&lt;img src="https://images.unsplash.com/photo-1565815146384-5e27ff130edc?ixid=M3w0NjAwMjJ8MHwxfHJhbmRvbXx8fHx8fHx8fDE3NTA3NTAyMDV8&amp;ixlib=rb-4.1.0" alt="Featured image of post void" /&gt;&lt;h1 id=&#34;voideditorvoid&#34;&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/voideditor/void&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;voideditor/void&lt;/a&gt;
&lt;/h1&gt;&lt;h1 id=&#34;welcome-to-void&#34;&gt;Welcome to Void.
&lt;/h1&gt;&lt;div align=&#34;center&#34;&gt;
	&lt;img
		src=&#34;./src/vs/workbench/browser/parts/editor/media/slice_of_void.png&#34;
	 	alt=&#34;Void Welcome&#34;
		width=&#34;300&#34;
	 	height=&#34;300&#34;
	/&gt;
&lt;/div&gt;
&lt;p&gt;Void is the open-source Cursor alternative.&lt;/p&gt;
&lt;p&gt;Use AI agents on your codebase, checkpoint and visualize changes, and bring any model or host locally. Void sends messages directly to providers without retaining your data.&lt;/p&gt;
&lt;p&gt;This repo contains the full sourcecode for Void. If you&amp;rsquo;re new, welcome!&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;🧭 &lt;a class=&#34;link&#34; href=&#34;https://voideditor.com&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Website&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;👋 &lt;a class=&#34;link&#34; href=&#34;https://discord.gg/RSNjgaugJs&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Discord&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;🚙 &lt;a class=&#34;link&#34; href=&#34;https://github.com/orgs/voideditor/projects/2&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Project Board&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;contributing&#34;&gt;Contributing
&lt;/h2&gt;&lt;ol&gt;
&lt;li&gt;
&lt;p&gt;To get started working on Void, check out our Project Board! You can also see &lt;a class=&#34;link&#34; href=&#34;https://github.com/voideditor/void/blob/main/HOW_TO_CONTRIBUTE.md&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;HOW_TO_CONTRIBUTE&lt;/a&gt;.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;Feel free to attend a casual weekly meeting in our Discord channel!&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;reference&#34;&gt;Reference
&lt;/h2&gt;&lt;p&gt;Void is a fork of the &lt;a class=&#34;link&#34; href=&#34;https://github.com/microsoft/vscode&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;vscode&lt;/a&gt; repository. For a guide to the codebase, see &lt;a class=&#34;link&#34; href=&#34;https://github.com/voideditor/void/blob/main/VOID_CODEBASE_GUIDE.md&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;VOID_CODEBASE_GUIDE&lt;/a&gt;.&lt;/p&gt;
&lt;h2 id=&#34;support&#34;&gt;Support
&lt;/h2&gt;&lt;p&gt;You can always reach us in our Discord server or contact us via email: &lt;a class=&#34;link&#34; href=&#34;mailto:hello@voideditor.com&#34; &gt;hello@voideditor.com&lt;/a&gt;.&lt;/p&gt;
</description>
        </item>
        <item>
        <title>ComfyUI-LTXVideo</title>
        <link>https://producthunt.programnotes.cn/en/p/comfyui-ltxvideo/</link>
        <pubDate>Wed, 14 May 2025 15:29:28 +0800</pubDate>
        
        <guid>https://producthunt.programnotes.cn/en/p/comfyui-ltxvideo/</guid>
        <description>&lt;img src="https://images.unsplash.com/photo-1545640947-6f57255a0796?ixid=M3w0NjAwMjJ8MHwxfHJhbmRvbXx8fHx8fHx8fDE3NDcyMDc3MDd8&amp;ixlib=rb-4.1.0" alt="Featured image of post ComfyUI-LTXVideo" /&gt;&lt;h1 id=&#34;lightrickscomfyui-ltxvideo&#34;&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/Lightricks/ComfyUI-LTXVideo&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Lightricks/ComfyUI-LTXVideo&lt;/a&gt;
&lt;/h1&gt;&lt;h1 id=&#34;comfyui-ltxvideo&#34;&gt;ComfyUI-LTXVideo
&lt;/h1&gt;&lt;p&gt;ComfyUI-LTXVideo is a collection of custom nodes for ComfyUI, designed to provide useful tools for working with the LTXV model.
The model itself is supported in the core ComfyUI &lt;a class=&#34;link&#34; href=&#34;https://github.com/comfyanonymous/ComfyUI/tree/master/comfy/ldm/lightricks&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;code&lt;/a&gt;.
The main LTXVideo repository can be found &lt;a class=&#34;link&#34; href=&#34;https://github.com/Lightricks/LTX-Video&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;here&lt;/a&gt;.&lt;/p&gt;
&lt;h1 id=&#34;-06052025--ltxvideo-13b-097-release-&#34;&gt;⭐ 06.05.2025 – LTXVideo 13B 0.9.7 Release ⭐
&lt;/h1&gt;&lt;h3 id=&#34;-whats-new-in-ltxvideo-13b-097&#34;&gt;🚀 What&amp;rsquo;s New in LTXVideo 13B 0.9.7
&lt;/h3&gt;&lt;ol&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;LTXV 13B 0.9.7&lt;/strong&gt;
Delivers cinematic-quality videos at unprecedented speed.&lt;br&gt;
👉 &lt;a class=&#34;link&#34; href=&#34;https://huggingface.co/Lightricks/LTX-Video/blob/main/ltxv-13b-0.9.7-dev.safetensors&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Download here&lt;/a&gt;&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;LTXV 13B Quantized 0.9.7&lt;/strong&gt;
Offers reduced memory requirements and even faster inference speeds.
Ideal for consumer-grade GPUs (e.g., NVIDIA 4090, 5090).
Delivers outstanding quality with improved performance.&lt;br&gt;
&lt;em&gt;&lt;strong&gt;Important:&lt;/strong&gt;&lt;/em&gt; In order to run the quantized version please install &lt;a class=&#34;link&#34; href=&#34;https://github.com/Lightricks/LTXVideo-Q8-Kernels&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;LTXVideo-Q8-Kernels&lt;/a&gt; package and use dedicated flow below. Loading the model in Comfy with LoadCheckpoint node won&amp;rsquo;t work. &lt;br&gt;
👉 &lt;a class=&#34;link&#34; href=&#34;https://huggingface.co/Lightricks/LTX-Video/blob/main/ltxv-13b-0.9.7-dev-fp8.safetensors&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Download here&lt;/a&gt;&lt;br&gt;
🧩 Example ComfyUI flow available in the &lt;a class=&#34;link&#34; href=&#34;#example-workflows&#34; &gt;Example Workflows&lt;/a&gt; section.&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;&lt;strong&gt;Latent Upscaling Models&lt;/strong&gt;
Enables inference across multiple scales by upscaling latent tensors without decoding/encoding.
Multiscale inference delivers high-quality results in a fraction of the time compared to similar models.&lt;br&gt;
&lt;em&gt;&lt;strong&gt;Important:&lt;/strong&gt;&lt;/em&gt; Make sure you put the models below in &lt;strong&gt;models/upscale_models&lt;/strong&gt; folder.&lt;br&gt;
👉 Spatial upscaling: &lt;a class=&#34;link&#34; href=&#34;https://huggingface.co/Lightricks/LTX-Video/blob/main/ltxv-spatial-upscaler-0.9.7.safetensors&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Download here&lt;/a&gt;.&lt;br&gt;
👉 Temporal upscaling: &lt;a class=&#34;link&#34; href=&#34;https://huggingface.co/Lightricks/LTX-Video/blob/main/ltxv-temporal-upscaler-0.9.7.safetensors&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Download here&lt;/a&gt;.&lt;br&gt;
🧩 Example ComfyUI flow available in the &lt;a class=&#34;link&#34; href=&#34;#example-workflows&#34; &gt;Example Workflows&lt;/a&gt; section.&lt;/p&gt;
&lt;/li&gt;
&lt;/ol&gt;
&lt;h3 id=&#34;technical-updates&#34;&gt;Technical Updates
&lt;/h3&gt;&lt;ol&gt;
&lt;li&gt;&lt;em&gt;&lt;strong&gt;New simplified flows and nodes&lt;/strong&gt;&lt;/em&gt;&lt;br&gt;
1.1. Simplified image to video: &lt;a class=&#34;link&#34; href=&#34;example_workflows/ltxv-13b-i2v-base.json&#34; &gt;Download here&lt;/a&gt;.&lt;br&gt;
1.2. Simplified image to video with extension: &lt;a class=&#34;link&#34; href=&#34;example_workflows/ltxv-13b-i2v-extend.json&#34; &gt;Download here&lt;/a&gt;.&lt;br&gt;
1.3. Simplified image to video with keyframes: &lt;a class=&#34;link&#34; href=&#34;example_workflows/ltxv-13b-i2v-keyframes.json&#34; &gt;Download here&lt;/a&gt;.&lt;br&gt;&lt;/li&gt;
&lt;/ol&gt;
&lt;h1 id=&#34;17042025--ltxvideo-096-release-&#34;&gt;17.04.2025 ⭐ LTXVideo 0.9.6 Release ⭐
&lt;/h1&gt;&lt;h3 id=&#34;ltxvideo-096-introduces&#34;&gt;LTXVideo 0.9.6 introduces:
&lt;/h3&gt;&lt;ol&gt;
&lt;li&gt;LTXV 0.9.6 – higher quality, faster, great for final output. Download from &lt;a class=&#34;link&#34; href=&#34;https://huggingface.co/Lightricks/LTX-Video/resolve/main/ltxv-2b-0.9.6-dev-04-25.safetensors&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;here&lt;/a&gt;.&lt;/li&gt;
&lt;li&gt;LTXV 0.9.6 Distilled – our fastest model yet (only 8 steps for generation), lighter, great for rapid iteration. Download from &lt;a class=&#34;link&#34; href=&#34;https://huggingface.co/Lightricks/LTX-Video/resolve/main/ltxv-2b-0.9.6-distilled-04-25.safetensors&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;here&lt;/a&gt;.&lt;/li&gt;
&lt;/ol&gt;
&lt;h3 id=&#34;technical-updates-1&#34;&gt;Technical Updates
&lt;/h3&gt;&lt;p&gt;We introduce the &lt;strong&gt;STGGuiderAdvanced&lt;/strong&gt; node, which applies different CFG and STG parameters at various diffusion steps. All flows have been updated to use this node and are designed to provide optimal parameters for the best quality.
See the &lt;a class=&#34;link&#34; href=&#34;#example-workflows&#34; &gt;Example Workflows&lt;/a&gt; section.&lt;/p&gt;
&lt;h1 id=&#34;5032025--ltxvideo-095-release-&#34;&gt;5.03.2025 ⭐ LTXVideo 0.9.5 Release ⭐
&lt;/h1&gt;&lt;h3 id=&#34;ltxvideo-095-introduces&#34;&gt;LTXVideo 0.9.5 introduces:
&lt;/h3&gt;&lt;ol&gt;
&lt;li&gt;Improved quality with reduced artifacts.&lt;/li&gt;
&lt;li&gt;Support for higher resolution and longer sequences.&lt;/li&gt;
&lt;li&gt;Frame and sequence conditioning (beyond the first frame).&lt;/li&gt;
&lt;li&gt;Enhanced prompt understanding.&lt;/li&gt;
&lt;li&gt;Commercial license availability.&lt;/li&gt;
&lt;/ol&gt;
&lt;h3 id=&#34;technical-updates-2&#34;&gt;Technical Updates
&lt;/h3&gt;&lt;p&gt;Since LTXVideo is now fully supported in the ComfyUI core, we have removed the custom model implementation. Instead, we provide updated workflows to showcase the new features:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Frame Conditioning&lt;/strong&gt; – Enables interpolation between given frames.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Sequence Conditioning&lt;/strong&gt; – Allows motion interpolation from a given frame sequence, enabling video extension from the beginning, end, or middle of the original video.&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Prompt Enhancer&lt;/strong&gt; – A new node that helps generate prompts optimized for the best model performance.
See the &lt;a class=&#34;link&#34; href=&#34;#example-workflows&#34; &gt;Example Workflows&lt;/a&gt; section for more details.&lt;/li&gt;
&lt;/ol&gt;
&lt;h3 id=&#34;ltxtricks-update&#34;&gt;LTXTricks Update
&lt;/h3&gt;&lt;p&gt;The LTXTricks code has been integrated into this repository (in the &lt;code&gt;/tricks&lt;/code&gt; folder) and will be maintained here. The original &lt;a class=&#34;link&#34; href=&#34;https://github.com/logtd/ComfyUI-LTXTricks&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;repo&lt;/a&gt; is no longer maintained, but all existing workflows should continue to function as expected.&lt;/p&gt;
&lt;h2 id=&#34;22122024&#34;&gt;22.12.2024
&lt;/h2&gt;&lt;p&gt;Fixed a bug which caused the model to produce artifacts on short negative prompts when using a native CLIP Loader node.&lt;/p&gt;
&lt;h2 id=&#34;19122024--update-&#34;&gt;19.12.2024 ⭐ Update ⭐
&lt;/h2&gt;&lt;ol&gt;
&lt;li&gt;Improved model - removes &amp;ldquo;strobing texture&amp;rdquo; artifacts and generates better motion. Download from &lt;a class=&#34;link&#34; href=&#34;https://huggingface.co/Lightricks/LTX-Video/resolve/main/ltx-video-2b-v0.9.1.safetensors&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;here&lt;/a&gt;.&lt;/li&gt;
&lt;li&gt;STG support&lt;/li&gt;
&lt;li&gt;Integrated image degradation system for improved motion generation.&lt;/li&gt;
&lt;li&gt;Additional initial latent optional input to chain latents for high res generation.&lt;/li&gt;
&lt;li&gt;Image captioning in image to video &lt;a class=&#34;link&#34; href=&#34;example_workflows/ltxvideo-i2v.json&#34; &gt;flow&lt;/a&gt;.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;installation&#34;&gt;Installation
&lt;/h2&gt;&lt;p&gt;Installation via &lt;a class=&#34;link&#34; href=&#34;https://github.com/ltdrdata/ComfyUI-Manager&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;ComfyUI-Manager&lt;/a&gt; is preferred. Simply search for &lt;code&gt;ComfyUI-LTXVideo&lt;/code&gt; in the list of nodes and follow installation instructions.&lt;/p&gt;
&lt;h3 id=&#34;manual-installation&#34;&gt;Manual installation
&lt;/h3&gt;&lt;ol&gt;
&lt;li&gt;Install ComfyUI&lt;/li&gt;
&lt;li&gt;Clone this repository to &lt;code&gt;custom-nodes&lt;/code&gt; folder in your ComfyUI installation directory.&lt;/li&gt;
&lt;li&gt;Install the required packages:&lt;/li&gt;
&lt;/ol&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-bash&#34; data-lang=&#34;bash&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;&lt;span class=&#34;nb&#34;&gt;cd&lt;/span&gt; custom_nodes/ComfyUI-LTXVideo &lt;span class=&#34;o&#34;&gt;&amp;amp;&amp;amp;&lt;/span&gt; pip install -r requirements.txt
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;p&gt;For portable ComfyUI installations, run&lt;/p&gt;
&lt;div class=&#34;highlight&#34;&gt;&lt;div class=&#34;chroma&#34;&gt;
&lt;table class=&#34;lntable&#34;&gt;&lt;tr&gt;&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code&gt;&lt;span class=&#34;lnt&#34;&gt;1
&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;
&lt;td class=&#34;lntd&#34;&gt;
&lt;pre tabindex=&#34;0&#34; class=&#34;chroma&#34;&gt;&lt;code class=&#34;language-fallback&#34; data-lang=&#34;fallback&#34;&gt;&lt;span class=&#34;line&#34;&gt;&lt;span class=&#34;cl&#34;&gt;.\python_embeded\python.exe -m pip install -r .\ComfyUI\custom_nodes\ComfyUI-LTXVideo\requirements.txt
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/td&gt;&lt;/tr&gt;&lt;/table&gt;
&lt;/div&gt;
&lt;/div&gt;&lt;h3 id=&#34;models&#34;&gt;Models
&lt;/h3&gt;&lt;ol&gt;
&lt;li&gt;Download &lt;a class=&#34;link&#34; href=&#34;https://huggingface.co/Lightricks/LTX-Video/blob/main/ltx-video-2b-v0.9.1.safetensors&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;ltx-video-2b-v0.9.1.safetensors&lt;/a&gt; from Hugging Face and place it under &lt;code&gt;models/checkpoints&lt;/code&gt;.&lt;/li&gt;
&lt;li&gt;Install one of the t5 text encoders, for example &lt;a class=&#34;link&#34; href=&#34;https://huggingface.co/mcmonkey/google_t5-v1_1-xxl_encoderonly/tree/main&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;google_t5-v1_1-xxl_encoderonly&lt;/a&gt;. You can install it using ComfyUI Model Manager.&lt;/li&gt;
&lt;/ol&gt;
&lt;h2 id=&#34;example-workflows&#34;&gt;Example workflows
&lt;/h2&gt;&lt;p&gt;Note that to run the example workflows, you need to have some additional custom nodes, like &lt;a class=&#34;link&#34; href=&#34;https://github.com/kosinkadink/ComfyUI-VideoHelperSuite&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;ComfyUI-VideoHelperSuite&lt;/a&gt; and others, installed. You can do it by pressing &amp;ldquo;Install Missing Custom Nodes&amp;rdquo; button in ComfyUI Manager.&lt;/p&gt;
&lt;h3 id=&#34;easy-to-use-multi-scale-generation-workflows&#34;&gt;Easy to use multi scale generation workflows
&lt;/h3&gt;&lt;p&gt;🧩 &lt;a class=&#34;link&#34; href=&#34;example_workflows/ltxv-13b-i2v-base.json&#34; &gt;Image to video&lt;/a&gt;&lt;br&gt;
🧩 &lt;a class=&#34;link&#34; href=&#34;example_workflows/ltxv-13b-i2v-keyframes.json&#34; &gt;Image to video with keyframes&lt;/a&gt;&lt;br&gt;
🧩 &lt;a class=&#34;link&#34; href=&#34;example_workflows/ltxv-13b-i2v-extend.json&#34; &gt;Image to video with duration extension&lt;/a&gt;&lt;br&gt;
🧩 &lt;a class=&#34;link&#34; href=&#34;example_workflows/ltxv-13b-i2v-base-fp8.json&#34; &gt;Image to video 8b quantized&lt;/a&gt;&lt;/p&gt;
&lt;h3 id=&#34;inversion&#34;&gt;Inversion
&lt;/h3&gt;&lt;h4 id=&#34;flow-edit&#34;&gt;Flow Edit
&lt;/h4&gt;&lt;p&gt;🧩 &lt;a class=&#34;link&#34; href=&#34;example_workflows/tricks/ltxvideo-flow-edit.json&#34; &gt;Download workflow&lt;/a&gt;&lt;br&gt;
&lt;img src=&#34;https://producthunt.programnotes.cn/example_workflows/tricks/ltxvideo-flow-edit.png&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;workflow&#34;
	
	
&gt;&lt;/p&gt;
&lt;h4 id=&#34;rf-edit&#34;&gt;RF Edit
&lt;/h4&gt;&lt;p&gt;🧩 &lt;a class=&#34;link&#34; href=&#34;example_workflows/tricks/ltxvideo-rf-edit.json&#34; &gt;Download workflow&lt;/a&gt;&lt;br&gt;
&lt;img src=&#34;https://producthunt.programnotes.cn/example_workflows/tricks/ltxvideo-rf-edit.png&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;workflow&#34;
	
	
&gt;&lt;/p&gt;
</description>
        </item>
        <item>
        <title>Awesome-Dify-Workflow</title>
        <link>https://producthunt.programnotes.cn/en/p/awesome-dify-workflow/</link>
        <pubDate>Fri, 18 Apr 2025 15:28:32 +0800</pubDate>
        
        <guid>https://producthunt.programnotes.cn/en/p/awesome-dify-workflow/</guid>
        <description>&lt;img src="https://images.unsplash.com/photo-1504069764974-3831da96850b?ixid=M3w0NjAwMjJ8MHwxfHJhbmRvbXx8fHx8fHx8fDE3NDQ5NjEyNjh8&amp;ixlib=rb-4.0.3" alt="Featured image of post Awesome-Dify-Workflow" /&gt;&lt;h1 id=&#34;svcvitawesome-dify-workflow&#34;&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/svcvit/Awesome-Dify-Workflow&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;svcvit/Awesome-Dify-Workflow&lt;/a&gt;
&lt;/h1&gt;&lt;div align=&#34;center&#34;&gt;
&lt;h1 id=&#34;awesome-dify-workflow-&#34;&gt;Awesome-Dify-Workflow 🚀
&lt;/h1&gt;&lt;p&gt;&lt;strong&gt;Share &amp;amp; Discover Useful Dify Workflows! For personal use &amp;amp; learning. &lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;a class=&#34;link&#34; href=&#34;README_EN.md&#34; &gt;English&lt;/a&gt; | &lt;a class=&#34;link&#34; href=&#34;README.md&#34; &gt;中文&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;&lt;a href=&#34;https://trendshift.io/repositories/13476&#34; target=&#34;_blank&#34;&gt;&lt;img src=&#34;https://trendshift.io/api/badge/repositories/13476&#34; alt=&#34;svcvit%2FAwesome-Dify-Workflow | Trendshift&#34; style=&#34;width: 250px; height: 55px;&#34; width=&#34;250&#34; height=&#34;55&#34;/&gt;&lt;/a&gt;&lt;/p&gt;
&lt;/div&gt;
&lt;p&gt;分享一些好用的 Dify 工作流程，自用、学习两相宜，请使用 Dify 0.13.0 及以上版本导入。已支持多 &lt;strong&gt;任务并行&lt;/strong&gt;、&lt;strong&gt;会话变量&lt;/strong&gt;、&lt;strong&gt;表单&lt;/strong&gt;、&lt;strong&gt;echart渲染&lt;/strong&gt; 相关特性。Agent节点为1.0版本之后功能，请尽可能使用最新版DIFY导入。&lt;/p&gt;
&lt;p&gt;所有的 Workflow 基本都可以 &lt;strong&gt;免费&lt;/strong&gt; 使用，更多 Workflow 收集整理中……&lt;/p&gt;
&lt;h2 id=&#34;分享群&#34;&gt;分享群
&lt;/h2&gt;&lt;p&gt;开了一个分享群，有兴趣可以加入，如果你有关于 workflow 的问题也可以一起讨论。（2025/04/17 更新）&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;主群都超200了，加群主好友，备注 dify，拉你到人多一些的群。不过微信风控，有时候加不上，可以稍后再试。&lt;/li&gt;
&lt;li&gt;当然，也可以加新群，目前人少一点，基本1-2天左右一个群就能满200.&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;视频教程&#34;&gt;视频教程
&lt;/h2&gt;&lt;p&gt;最近计划更新一个DIFY使用系列教程，基本上有手就会，里面包含很多我个人使用过程中的一些理解，相信不管你是新手小白，还是企业用户，都会有所收货。&lt;/p&gt;
&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;名称&lt;/th&gt;
          &lt;th&gt;视频&lt;/th&gt;
          &lt;th&gt;文字摘要版&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;01课 - DIFY的本地化部署与启动&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.youtube.com/watch?v=6LnHVay289w&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://www.youtube.com/watch?v=6LnHVay289w&lt;/a&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://blog.vcvit.me/2025/04/09/01-dify-local-deployment-and-startup/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://blog.vcvit.me/2025/04/09/01-dify-local-deployment-and-startup/&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;02课 - DIFY模型配置&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.youtube.com/watch?v=4I2DgPR3qDA&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://www.youtube.com/watch?v=4I2DgPR3qDA&lt;/a&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://blog.vcvit.me/2025/04/10/02-dify-model-configuration/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://blog.vcvit.me/2025/04/10/02-dify-model-configuration/&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;03课 - chatflow和workfow的区别&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.youtube.com/watch?v=quEA_7LVWA8&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://www.youtube.com/watch?v=quEA_7LVWA8&lt;/a&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://blog.vcvit.me/2025/04/11/03-dify-workflow-vs-chatflow/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://blog.vcvit.me/2025/04/11/03-dify-workflow-vs-chatflow/&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;常见问题&#34;&gt;常见问题
&lt;/h2&gt;&lt;p&gt;这里总结了一些群里常见的问题，不定期更新，内容不会很多，希望对你有帮助。&lt;/p&gt;
&lt;p&gt;&lt;a class=&#34;link&#34; href=&#34;https://zerozzz.win/ai-%E6%B5%81%E7%A8%8B%E5%B9%B3%E5%8F%B0%E5%AF%B9%E6%AF%94dify%E3%80%81fastgpt%E3%80%81ragflow&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;AI 流程平台对比——Dify、Fastgpt、Ragflow&lt;/a&gt;&lt;/p&gt;
&lt;details&gt;
&lt;summary&gt;dify 有没有国内的镜像源配置呀?&lt;/summary&gt;
&lt;img src=&#34;./images/Xnip2024-11-19_10-14-02.jpg&#34; alt=&#34;示例图片&#34; width=&#34;400&#34;&gt;
&lt;p&gt;A：我一般把所有image，前面的链接加上 dockerpull.org&lt;/p&gt;
&lt;/details&gt;
&lt;details&gt;
&lt;summary&gt;sandbox 如何安装pandas这些第三方库？&lt;/summary&gt;
A：打开 /docker/volumes/sandbox/dependencies/python-requirements.txt 填入需要安装的依赖，重启sandbox即可。
&lt;/details&gt;
&lt;details&gt;
&lt;summary&gt;定时任务可以如何处理？我希望定时执行某个流程。&lt;/summary&gt;
A：可以参考项目 https://github.com/leochen-g/dify-schedule
&lt;/details&gt;
&lt;details&gt;
&lt;summary&gt;节点间传递string数据，提示超限制，如何处理&lt;/summary&gt;
A：修改 .env 中的一段：
CODE_MAX_STRING_LENGTH: 1000000
TEMPLATE_TRANSFORM_MAX_LENGTH: 1000000
重启容器
&lt;/details&gt;
&lt;details&gt;
&lt;summary&gt;拿到图片URL后能在聊天窗口显示吗，试了下markdown但什么都没显示出来。&lt;/summary&gt;
&lt;img src=&#34;./images/image001.png&#34; alt=&#34;示例图片&#34; width=&#34;400&#34;&gt;
&lt;p&gt;A：你的做法是对的，只是你的图片不支持跨域，所以没渲染出来&lt;/p&gt;
&lt;/details&gt;
&lt;details&gt;
&lt;summary&gt;请教一个问题，知识库上传大文件提出报错，修改配置文件后，还是无法上传大文件，如下是配置文件中修改上传文件地方；&lt;/summary&gt;
&lt;img src=&#34;./images/002.png&#34; alt=&#34;示例图片&#34; width=&#34;400&#34;&gt;
&lt;p&gt;A:nginx 也要改；在.env里面；搜 nginx，应该能找到&lt;/p&gt;
&lt;/details&gt;
&lt;details&gt;
&lt;summary&gt;知识库永久排队问题&lt;/summary&gt;
A：修改 .env 中的一段：LOG_FILE=/app/logs/server.log；重启容器
&lt;/details&gt;
&lt;details&gt;
&lt;summary&gt;在哪里可以自学Dify?&lt;/summary&gt;
A：可以参考 https://dify101.com
&lt;/details&gt;
&lt;details&gt;
&lt;summary&gt;Dify生成图表有什么好方案？&lt;/summary&gt;
A：Dify自带了一些绘图功能，包括柱状图、曲线图等。 也可以自己写一个Echarts插件，从数据库读取数据并画图。 
&lt;/details&gt;
&lt;details&gt;
&lt;summary&gt;Dify知识库上传PDF乱码怎么办？&lt;/summary&gt;
A： 可以使用工具将PDF转换成Markdown格式再上传。
&lt;/details&gt;
&lt;details&gt;
&lt;summary&gt;DuckDuckGo 翻译 现在是不可用了吗&lt;/summary&gt;
A：应该是服务器挂了代理，但是dify是启在docker里面的，没挂。
&lt;/details&gt;
&lt;details&gt;
&lt;summary&gt;探索 Dify 的官方示例应用全部是英文，怎么切换成中文？&lt;/summary&gt;
A：点击右上角，头像，设置，语言，先切换成其它语言，再切换成中文，即可。
&lt;/details&gt;
&lt;details&gt;
&lt;summary&gt;管理员密码忘记了怎么搞？&lt;/summary&gt;
A：执行下面的指令：docker exec -it docker-api-1 flask reset-password
&lt;/details&gt;
&lt;h2 id=&#34;sandbox&#34;&gt;SANDBOX
&lt;/h2&gt;&lt;p&gt;sandbox 运行pandas，numpy&amp;gt;2.0，matplotlib，scikit-learn 代码老报错，可以使用我开发的另外一个简单版&lt;a class=&#34;link&#34; href=&#34;https://github.com/svcvit/dify-sandbox-py&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;dify-sandbox-py&lt;/a&gt;，这些依赖已经测试可以使用。&lt;/p&gt;
&lt;h2 id=&#34;dify-10-插件&#34;&gt;DIFY 1.0 插件
&lt;/h2&gt;&lt;p&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/svcvit/dify_plugin_collection&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;dify_plugin_collection&lt;/a&gt; 仓库存放着 DIFY 的&lt;a class=&#34;link&#34; href=&#34;https://marketplace.dify.ai/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;官方市场&lt;/a&gt; 插件安装包，方便离线用户自由选择，不定期更新。&lt;/p&gt;
&lt;p&gt;如果你希望开发插件，我有2个插件的源码 &lt;a class=&#34;link&#34; href=&#34;https://github.com/svcvit/dify-plugin-google_translate&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;google翻译&lt;/a&gt;、&lt;a class=&#34;link&#34; href=&#34;https://github.com/svcvit/dify-plugin-tod_agent&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;对话Agent&lt;/a&gt; 希望可以给你参考。&lt;/p&gt;
&lt;h2 id=&#34;模型&#34;&gt;模型
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;你可以使用最近火热的deepseek-R1，硅基流动提供免费2000万Tokens，如果使用邀请注册，你和我都会获赠免费2000万token的额度：&lt;a class=&#34;link&#34; href=&#34;https://cloud.siliconflow.cn/i/MwADckCi&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://cloud.siliconflow.cn/i/MwADckCi&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;如果你希望体验 OpenAI 或 Anthropic 的模型，可以使用我搭建的服务 &lt;a class=&#34;link&#34; href=&#34;https://one.coffbox.com/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;CoffBox&lt;/a&gt; 的服务
配置方式参考 &lt;a class=&#34;link&#34; href=&#34;https://blog.vcvit.me/2024/11/13/how-to-use-one-api-in-dify/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;如何在Dify中使用CoffBox的服务&lt;/a&gt;
这个方式仅供个人使用，如果你需要大规模使用，&lt;a class=&#34;link&#34; href=&#34;https://openrouter.ai/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;openrouter&lt;/a&gt;会是个更好的选择。&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;参考截图&#34;&gt;参考截图
&lt;/h2&gt;&lt;p&gt;所有 DSL 都为工作流模式，可以方便的发布为工具后，嵌入 ChatBot 流程。工作流会包含基础的输入、条件判断、变量聚合器、输出等内容。&lt;/p&gt;
&lt;h1 id=&#34;dsl-目录&#34;&gt;DSL 目录
&lt;/h1&gt;&lt;p&gt;你可以参考下面每个 yml 的描述，找到你需要的 Workflow，然后在 DSL 文件夹中找到对应的文件，复制文件的 URL，导入自己的 Dify 账号即可。&lt;/p&gt;
&lt;h2 id=&#34;2025-04-17更新&#34;&gt;2025-04-17更新
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;sanic-web&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;这是一个使用DIFY作为服务层的数据库问答项目，项目有独立的web交互界面，请访问 &lt;a class=&#34;link&#34; href=&#34;https://github.com/apconw/sanic-web&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://github.com/apconw/sanic-web&lt;/a&gt; 查看详情。项目完成度很高，按照文档一步步操作即可启动。使用ollama的qwen和deepseek模型，即可获得不错的效果。&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/apconw/sanic-web&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;sanic-web&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;2025-04-16更新&#34;&gt;2025-04-16更新
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;MCP-amap.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;使用&lt;a class=&#34;link&#34; href=&#34;https://marketplace.dify.ai/plugins/hjlarry/agent&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;MCP Agent 策略&lt;/a&gt;进行MCP工具的调用示例，MCP使用&lt;a class=&#34;link&#34; href=&#34;https://lbs.amap.com/api/mcp-server/gettingstarted&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;高德地图&lt;/a&gt; 提供的在线服务，你可以先注册一个开发者账号，申请一个免费的Key。替换下图中马赛克部分  这里还有一个官方示例&lt;a class=&#34;link&#34; href=&#34;https://mp.weixin.qq.com/s/CDhqmLO1JXSB__aUMqoGoQ&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Dify MCP 插件指南：一键连接 Zapier，轻松调用 7000+ App 工具&lt;/a&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://vcvit.me/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;@svcvit&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;2025-04-07更新&#34;&gt;2025-04-07更新
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;图文知识库&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;如果你希望检索知识库后，是图配文的效果，你需要在知识库里加上图片的远程连接即可。可参考本示例，包含一个markdown文件。&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://vcvit.me/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;@svcvit&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;2025-03-21更新&#34;&gt;2025-03-21更新
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;Demo-tod_agent.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;使用dify 1.0 的Agent节点，针对对话场景优化的Agent策略，例如：多轮对话、上下文理解、信息收集等。https://marketplace.dify.ai/plugins/svcvit/agent&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://vcvit.me/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;@svcvit&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;2025-02-24更新&#34;&gt;2025-02-24更新
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;Deep Researcher On Dify .yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;Deep Researcher 工作流复现方案&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/AdamPlatin123/Open-Deep-Research-workflow-on-Dify&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;@AdamPlatin123&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;2025-02-17更新&#34;&gt;2025-02-17更新
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;Agent工具调用.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;使用dify 1.0 的Agent节点，使用FC调用不同的工具，进行回复。&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://vcvit.me/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;@svcvit&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;2025-01-23更新&#34;&gt;2025-01-23更新
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;旅行Demo.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;使用dify 1.0 的Agent节点，演示旅行信息收集，Tool调用，对话历史上下文存储。将对话消息存入对话变量，纳入Agent的思考上下文。&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://vcvit.me/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;@svcvit&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;2025-01-21更新&#34;&gt;2025-01-21更新
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;春联生成器.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;春联生成工具，注意字体需要电脑有，可以按需修改字体。&lt;/td&gt;
          &lt;td&gt;微信群@Junjie.M&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;春联生成器 (“福”到了版本).yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;&lt;/td&gt;
          &lt;td&gt;微信群@Junjie.M&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;完蛋！我被LLM包围了！ .yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;【完蛋！我被LLM包围了！】借鉴了：https://github.com/modelscope/modelscope/tree/master/examples/apps/llm_riddles&lt;/td&gt;
          &lt;td&gt;微信群@Junjie.M&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;2024-12-05更新&#34;&gt;2024-12-05更新
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;File_read.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;使用sandbox读取文件并解析，需要使用&lt;a class=&#34;link&#34; href=&#34;https://github.com/svcvit/dify-sandbox-py&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;dify-sandbox-py&lt;/a&gt;，挂在上传目录，这是一个pandas读取csv的示例，具体方法参考右侧来源链接&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://blog.vcvit.me/2024/12/05/use-dify-sandbox-to-parse-files/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;@svcvit&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;runLLMCode.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;使用LLM生成的Code，再通过sandbox去执行。因为code节点无法直接引用LLM的代码，所以通过HTTP请求的方式执行，这里有一个分析csv的示例。&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://vcvit.me/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;@svcvit&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;数据分析.7z&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;数据分析的示例，可以根据需求查询数据库，生成对应的解读和图表。示例中包括流程文件和flask的服务。&lt;/td&gt;
          &lt;td&gt;微信群：简单&amp;amp;平凡@&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;2024-11-29更新&#34;&gt;2024-11-29更新
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;LanguageConsistencyChecker.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;三语言检查器，主要处理翻译的内容优化，它还有一个web端配套&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/stvlynn/langfixer&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;langfixer&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;2024-11-22更新&#34;&gt;2024-11-22更新
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;matplotlib.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;使用matplotlib画图，将图片输出为base64，再通过回复渲染图片。注意，官方sandbox权限比较复杂，安装完matplotlib也无法使用，请使用&lt;a class=&#34;link&#34; href=&#34;https://github.com/svcvit/dify-sandbox-py&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;dify-sandbox-py&lt;/a&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://vcvit.me/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;@svcvit&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;jieba.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;jieba 分词示例，请使用&lt;a class=&#34;link&#34; href=&#34;https://github.com/svcvit/dify-sandbox-py&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;dify-sandbox-py&lt;/a&gt;&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://vcvit.me/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;@svcvit&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;2024-11-20更新&#34;&gt;2024-11-20更新
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;json-repair.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;大模型输出的JSON格式不标准，少个引号，多个括号，通过这个流程修复为可解析的的JSON&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://vcvit.me/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;@svcvit&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;2024-11-15更新&#34;&gt;2024-11-15更新
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;json_translate.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;解析JSON中的需要翻译的内容，使用迭代器进行翻译，再组合成新的JSON，保持原有JSON的结构&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://vcvit.me/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;@svcvit&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;2024-11-14更新&#34;&gt;2024-11-14更新
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;腾讯云SubtitleInfo.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;这是一个代码相关的示例，通过腾讯云的授权信息加密，获取需要的内容信息参考。如果你需要使用代码节点，可以参考用法。&lt;/td&gt;
          &lt;td&gt;微信分享群&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;chart_demo.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;通过回复内容渲染charts的图表内容。当然你可以可以根据sql查询数据，拼接成需要的内容&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://vcvit.me/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;@svcvit&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;2024-11-12更新&#34;&gt;2024-11-12更新
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;Form表单聊天Demo.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;在对话框登录之后有权限访问模型&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://vcvit.me/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;@svcvit&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;翻译&#34;&gt;翻译
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;中译英.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;通过宝玉的 Prompt，直译-&amp;gt;反思-&amp;gt;意译，将中文翻译成高质量的英文。&lt;/td&gt;
          &lt;td&gt;暂无&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;DuckDuckGo 翻译+LLM 二次翻译.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;与三步翻译类似，但是把第一步的直译变成传统翻译引擎翻译，节省 Token，提高翻译效率，同时提高翻译质量。&lt;/td&gt;
          &lt;td&gt;暂无&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;translation_workflow.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;使用吴恩达提出 Agentic Workflow 制作的翻译工具，录入&lt;code&gt;输入语言&lt;/code&gt;、&lt;code&gt;目标语言&lt;/code&gt;、&lt;code&gt;国家&lt;/code&gt;、&lt;code&gt;原始文本&lt;/code&gt; 4 个参数，提供更细致的翻译结果&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/andrewyng/translation-agent&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;translation-agent&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;宝玉的英译中优化版.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;宝玉的科技文章翻译优化版本，主要优化了提示词和 xml 标签&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://baoyu.io/blog/prompt-engineering/translator-gpt-prompt-v2-1-improvement&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;翻译 GPT 的提示词更新和优化&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;全书翻译.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;DIFY 官方示例，切分长文本，再迭代器内翻译&lt;/td&gt;
          &lt;td&gt;DIFY 官方探索内容&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;工具&#34;&gt;工具
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;SEO Slug Generator.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;给自己的博文生成 url slug，参考来源于宝玉的 X&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://x.com/dotey/status/1801280536125608265&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;twitter&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;Document_chat_template.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;一个通过知识库聊天的模版&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/Winson-030/dify-DSL&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Winson-030&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;搜索大师.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;通过 SearXNG 进行搜索，再通过 jina 获取搜索内容&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/Winson-030/dify-DSL&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Winson-030&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;标题党创作.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;一位爆款网文作家&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/ghostviper/dify-workflow&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;ghostviper&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;文章仿写-单图_多图自动搭配.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;文章仿写&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/ghostviper/dify-workflow&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;ghostviper&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;Text to Card Iteration.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;自动生成小红书这种卡片。&lt;/td&gt;
          &lt;td&gt;🔥Dify Workflow-Agent 设计交流 @Arthur&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;Dify 运营一条龙.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;小红书、抖音、微博、B 站一条龙运营。（2024/11/21更新，主流程已经不能用了，因为图片生成那个服务问题很多，而且限制了分辨率，导致生成图完全不对了，全当看个思路。）&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.youtube.com/watch?v=kCrQp8YZTsQ&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Dify 一键生成多尺寸 Cover 与全平台文案&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;Jina Reader Jinja.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;一个基于 TavilySearch 和 Jina 的问答流程&lt;/td&gt;
          &lt;td&gt;🔥Dify Workflow-Agent 设计交流群分享&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;llm2o1.cn.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;任务拆解→提取步骤→迭代步骤执行→归纳总结→输出结果&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://x.com/okooo5km/status/1838801763778072862&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;@okooo5km&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;dify_course_demo.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;自动化生成全套教程。&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/pekingmuge/dify_course&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;dify_course&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;simple-kimi.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;简易自制 Kimi&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/aws-samples/dify-aws-tool/tree/main/workflow&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;aws-samples&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;Claude3 Code Translation.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;不同代码种类之间的翻译工作流&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/aws-samples/dify-aws-tool/tree/main/workflow&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;aws-samples&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;聊天机器人&#34;&gt;聊天机器人
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;根据用户的意图进行回复.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;根据用户的聊天内容，进行意图判定，根据意图选择不同的工作流路径进行回复，再风格化聊天机器人话术&lt;/td&gt;
          &lt;td&gt;无&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;mem0ai&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;一个有记忆的聊天流程，完整代码见来源链接&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/tonori/dify-plugin-mem0ai&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;dify-plugin-mem0ai&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;记忆测试.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;添加短期记忆，CoT 思维链的示例，自动问答机器人也可以主动触达，根据上下文选择最佳回复&lt;/td&gt;
          &lt;td&gt;来自微信 svcvit&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;代码&#34;&gt;代码
&lt;/h2&gt;&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;文件&lt;/th&gt;
          &lt;th&gt;描述&lt;/th&gt;
          &lt;th&gt;来源&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;&lt;code&gt;Python Coding Prompt.yml&lt;/code&gt;&lt;/td&gt;
          &lt;td&gt;通过聊天对话方式生成 Python 代码&lt;/td&gt;
          &lt;td&gt;&lt;a class=&#34;link&#34; href=&#34;https://www.reddit.com/r/ClaudeAI/comments/1dwra38/sonnet_35_for_coding_system_prompt/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Sonnet 3.5 for Coding 😍 - System Prompt&lt;/a&gt;&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;h2 id=&#34;使用方法&#34;&gt;使用方法
&lt;/h2&gt;&lt;p&gt;注册 &lt;a class=&#34;link&#34; href=&#34;https://cloud.dify.ai/&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Dify&lt;/a&gt; 账号，添加模型。&lt;/p&gt;
&lt;p&gt;下载本项目至本地，导入 DLS 文件即可，当然，你可以进行必要的调整，例如模版的调整，或提示词的调整。&lt;/p&gt;
</description>
        </item>
        
    </channel>
</rss>
