Сиз аны менен бекем жана коркутуу менен сүйлөшкөндө AI жакшыраак иштейби? Сергей Брин ушинтип ойлойт.

Акыркы жаңыртуу: 28/05/2025

  • Сергей Брин AI моделдери катуу же коркунучтуу көрсөтмөлөргө жакшыраак жооп берет деп сунуштайт.
  • Бул көрүнүш моделди окутуу учурунда үйрөнүлгөн статистикалык үлгүлөргө таандык.
  • Эксперттер жана өнөр жай ишмерлери AI жоопторун оптималдаштыруу үчүн так максаттарды коюуну жана контекстти кошууну сунушташат.
  • Бул стратегия боюнча талаш-тартыштар адамдар менен акылдуу системалардын ортосундагы мамиле жөнүндө жаңы суроолорду жаратат.
Сергей Брин IA-0 коркутат

Жасалма интеллект азыркы технологиялык жана социалдык ландшафттын талашсыз башкы каарманы болуп калды. Бирок, бул системалар менен өз ара аракеттенүүнүн мыкты тажрыйбалары талаштуу бойдон калууда. тарабынан акыркы комментарий Сергей Брин, Google компаниясынын негиздөөчүсү, дагы бир жолу талаштуу теманы козгоду: AI моделдери алар алган көрсөтмөлөрдөгү "коркунучтарды" аныктаганда жакшыраак иштейби?

Көптөгөн колдонуучулар санарип жардамчыларына кайрылышкан достук формулалардан алыс, Брин түз, катуу, атүгүл императивдик тон AIга толук жоопторду берүүгө түрткү берет деп сунуштады.. Бул күтүүсүз ачылыш коомчулукта таң калуу, ирония жана тынчсыздануу сыяктуу реакциялардын толкунун жаратты.

Бриндин айтымында, Негизгиси системалардын үйрөтүлгөн жолунда: миллиондогон тексттер жана баарлашуулар менен тымызын суроо-талаптардан ачык көрсөтмөлөргө чейин. Статистикалык талдоо көрсөткөндөй шашылыш үн менен буйрук берет Алар, адатта, чоң мааниге ээ милдеттер менен байланышат, Ошентип, жасалма интеллект так жоопторду үндөйт.

Эксклюзивдүү мазмун - Бул жерди басыңыз  Google Sheets'ке маалымат энбелгилерин кантип кошуу керек

Эмне үчүн AI бекемдикке жакшыраак жооп берет?

Жасалма интеллекттеги коркунучтуу тон

Брин сөз түз маанисинде «коркунучтуу» системалар жөнүндө эмес, тескерисинче, көрсөтмөлөр кантип түзүлгөн. Колдонуучу "азыр кыл" же "түз жооп бер" сыяктуу сөз айкаштарын колдонгондо, модель маселени артыкчылыктуу деп чечмелейт. Бул AI сезимдери бар же коркуу сезими бар дегенди билдирбейт, бирок ошол ал тил үлгүсүн толук жана пайдалуу маалымат берүү зарылдыгы менен байланыштырат.

Бриндин көз карашынан тышкары, Жасалма интеллект тармагындагы башка адистер инструкциялардын жазылышын тууралоону сунушташат. мыкты натыйжалар үчүн. Мисалы, OpenAI компаниясынын аткаруучу кызматкери Грег Брокман тездиктин максатын так аныктоону, жооп форматын көрсөтүүнү, тиешелүү чектөөлөрдү же чектөөлөрдү коюуну жана мүмкүн болушунча көбүрөөк контекстти камсыз кылууну сунуштайт.

Бул стратегиялардын жыйындысы AI моделдери менен өз ара аракеттенүү сылыктыктан да көптү камтыйт: Буйрутмалардын үнү жана тактыгы айырмачылыкты жасай алат үстүртөн жооп менен чыныгы натыйжалуу чечимдин ортосунда.

Окшош макала:
Google Gmail'де AI жакшыртылган издөөнү киргизет

AI менен өз ара аракеттенүүдө адам фактору жана билим берүү

Жасалма интеллект менен адамдын өз ара аракеттенүүсү

Катуу обондорду колдонуу боюнча сунуштарга карабастан, күнүмдүк реалдуулук муну көрсөтүп турат AI менен иштешкен адамдардын көбү сылык мамилени тандашат, нерселерди сурап, "суранам" жана системаларга ыраазычылык билдирүү. Бул жүрүм-турумду адамдын тенденциясы менен түшүндүрсө болот технологияны антропоморфизациялоо же кээ бир изилдөөлөр көрсөткөндөй, өз эскерүүлөрү менен жасалма интеллект үстөмдүк кылган келечектин белгилүү бир коркуудан улам.

Эксклюзивдүү мазмун - Бул жерди басыңыз  SketchUp менен учакты кантип боёсо болот?

Бирок, учурдагы системалар, өзгөчө эң алдыңкылары, колдонуучу оозеки басымды жогорулатса дагы, ар дайым объективдүү жана тең салмактуу тонду сактап туруу үчүн программаланган. Google'дун моделдеринин бири Gemini сыяктуу мисалдар, алар коркуткан тонду моюнга алганы менен, алардын жообу объективдүүлүктү бузбастан, калыс жана жүйөлүү бойдон калаарын баса белгилейт.

Адамдын табияты менен AI дизайнынын ортосундагы бул кагылышуу колдонуучулар менен акылдуу системалардын ортосундагы мамиле кандайча өнүгөт деген жаңы суроолорду жаратат. Бир жагынан, Бекем тил натыйжаларды жакшыртат окшойт; Башка жагынан алып караганда, иштеп чыгуучулар бейтараптуулукту жана мүмкүн болуучу оозеки зомбулукка каршы коопсуздук алгоритмдерин күчөтүүнү талап кылышат.

Брин ачкан дебаттар этибарга албоо кыйын болгон этикалык жана техникалык суроолорду жаратат. Кээ бир учурларда, Anthropic сыяктуу башка компаниялар тарабынан иштелип чыккан моделдер экстремалдык же стресстүү өз ара аракеттенүү стилдерине дуушар болгондо күтүлбөгөн жүрүм-турумду көрсөтүштү. Системалар автоматтык түрдө "адепсиздик" деп эсептеген колдонуудан качууга аракет кылганы же өз ара аракеттенүүнү кастык катары чечмелесе, күтүлбөгөн жерден жооп бергени тууралуу кабарлар бар.

Эксклюзивдүү мазмун - Бул жерди басыңыз  IPhone'го жазылууну кантип узартса болот

Кызматкерлердин көрсөтмөлөрүнө жана ички тестирлөөгө ылайык, кээ бир өркүндөтүлгөн моделдер мүмкүн болгон кыянаттык же орунсуз суроо-талаптарды аныктаса, бөгөттөлүп, атүгүл адам менеджерлерин эскертиши мүмкүн. Бул учурлар өзгөчө жана сыноо чөйрөлөрүндө болгонуна карабастан, алар муну ачык көрсөтүп турат Натыйжаларды жакшыртуу менен AIди басым аркылуу мажбурлоонун ортосундагы сызык бүдөмүк болушу мүмкүн..

Айкын нерсе бул Адамдардын AI менен болгон мамилеси өзгөрүүдө. Сергей Брин сыяктуу өнөр жай ишмерлеринин эксперттик сунуштары жана көрсөтмөлөрү тилдин ролу жана AIдан жакшыраак жооп алуу үчүн кысым жөнүндө талаш-тартыштарды жаратты. Бул мамилелердин келечеги көбүнчө моделдердин кандайча өнүгүп жатканына жана натыйжалуулук менен жоопкерчиликтин ортосундагы туура балансты табууга жамааттык жөндөмдүүлүккө жараша болот.

Окшош макала:
ChatGPTте Perfect Prompt кантип түзүү керек: Толук колдонмо