Это копия, сохраненная 14 июня 2019 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Обсуждаем базы данных во всех возможных реализациях
Структуры данных, ER-модели, key-value, хранилища, снежинки, звёздочки,
Оптимизируем запросы, написанные криворукими аналитиками,
Создаем времянки с одной строчкой,
Колонизируем индексы,
Коммитим транзакции,
Проводим sql-инъекции,
Пиздим за кривую табуляцию в процедурах, функциях и вьюхах,
Рассказываем тупым студакам, как заджойнить 2 таблички, чтобы сдать очередную лабу преподу-старпёру при смерти.
Ну и, конечно же, проходим бесплатные курсы на sql-ex за полгода и устраиваемся в ДС на 100 000 без задней мысли.
Погнали.
Прошлый тут: https://2ch.hk/pr/res/1222346.html (М)
Вопросик появился.
СУБД MS SQL SERVER 2014
Как будет работать поиск по некластурному индексу, если на таблице отсутствует кластерный индекс?
Реальная история я не тролль.
Берешь и заходишь на hh, например, и вводишь там в поиске
>Хранилище данных, аналитик
Вакансий (в ДС точно) хватает, народу ни хуя нет, так что поле непаханное.
ОП, где книги, где рекомендованная литература, ссылки, курсы?
Проблема в том, что я этот список не составил, потому что у самого опыт очень странный, зачастую почти не касающийся чтения теории.
Если хотите, давайте, как у всех, заведем проект на гитхабе и все подробно там распишем.
>Если хотите, давайте, как у всех, заведем проект на гитхабе и все подробно там распишем.
Да пошёл ты нахуй, вкатывальщики не нужны.
Короче. Есть - phpMyadmin 4.8.3, MySQL 5.6.41.
Задача - экспортировать базу данных и использовать её в формоклёпке Борланда и с возможностью перенести и юзать на высере вебмакакинга.
Шо с этой хуйнёй делать?
Не вытеснят, но могут понизить стоимость моего труда.
А зачем тебе экспорт БД? В чём проблема из дельфы обращаться к БД?
Не пользуйся этим говном - пхпадмин.
Скачай себе нормальный клиент для mysql жи, например
>heidisql
В чем может быть причина?
> Вопрос: где их хранить?
Если задача состоит в том, чтобы просто сохранить 300к файлов, то БД не лучший вариант. В остальных случаях, например, создание локального портала с документооборотом, конечно же лучше хранить в БД, заодно проиндексировав все файлы.
> 1 общая папка - 300 000 отдельных папок и в каждой еще по три папки получается, очень ебанутое решение.
Кстати ты ошибаешься. Это рекомендуемый способ хранения крупного набора файлов для любой ФС.
Спасибо. Оставлю вариант с папками.
Если интересно - файлы нужны для того, чтобы достать потом из них всякие признаки для ML модели.
Блядь, школьник, твой высер пять минут пытался понять. Весь мозг выебал и опишу как я понял. Ситуация такова, что ты открываешь соединение с БД, а оно у тебя лимитированное, твои «проги»/«потоки» не успевают выполнить операции, потому что БД закрывается.
На вид у тебя есть «прога», которая открывает БД, а дальше ты бомбишь БД запросами. И в этом твоя ошибка. Тебе необходимо асинхронно выполнять запросы, а распараллеливать в твоём случае не нужно.
Ну что же ты сразу про мл не написал? Конечно тогда лучше всё сохранить в БД и проиндексировать. Я бы ещё elasticsearch прикрутил. Было бы вообще удобно потом признаками наполнять...
insert delayed должен помочь?
Есть одна таблица с производства - каждый раз добавляются новые строчки и редактируются старые.
Задача: нужно регулярно генерить новые, стандартные ключи для новых данных и обновлять старые для той таблицы и добавлять данные по этим ключам.
Каким образом это можно делать, чтобы не проебаться?
Ключи то я раздам через rank, но как сделать так, чтобы они всегда давались постоянными к тем же старым данным и давались новые для новых?
Пока есть идеи через хэш как-нибудь реализовать - чекать, если есть, давать ключ max + ранк. Но это хуйня какая-то. Других идей чёт нет.
> Вакансий (в ДС точно) хватает, народу ни хуя нет
Давайте поможем анону догадаться почему
Спойлер: зп ниже чем у ебучего фронтендера иногда даже в разы
>но как сделать так, чтобы они всегда давались постоянными к тем же старым данным
Щито, бля?
Ты, сука, по-русски можешь писать?
Какие ключи, какие хэш + макс + ранк?
Но, если серьезно, напиши, какая у тебя СУБД и приведи по одному примеру для 2 своих кейсов:
1. Появляется новая запись, что с ней должно произойти
2. Обновляется существующая запись, что с ней должно произойти,
Ни хуя же непонятно
> Щито, бля?
> Ты, сука, по-русски можешь писать?
Пиздос, я не базист нихуя, по вашему не говорю.
Кризис, сисярперов за базы сажают.
> Но, если серьезно, напиши, какая у тебя СУБД и приведи по одному примеру для 2 своих кейсов.
SQL Server 16
> 1. Появляется новая запись, что с ней должно произойти
Прицепиться к базе2 с ключом, продолжающим закономерность ключей в базе2. Как?
> 2. Обновляется существующая запись, что с ней должно произойти,
Если в базе1 - обновить и в базе2.
Только как? Нужно удалить старый вариант и записать новый.
Более типично - приходят новые данные в базу1 по ключам из базы1, нужно добавить записи в базу2 под ключи базы2. Это понятно как сделать - держать словарь ключей база1-база2.
Примечание: база1 - индусская помойка, тянуть их ключи не вариант.
> Ни хуя же непонятно
Пытаюсь написать понятнее, анон
> Щито, бля?
> Ты, сука, по-русски можешь писать?
Пиздос, я не базист нихуя, по вашему не говорю.
Кризис, сисярперов за базы сажают.
> Но, если серьезно, напиши, какая у тебя СУБД и приведи по одному примеру для 2 своих кейсов.
SQL Server 16
> 1. Появляется новая запись, что с ней должно произойти
Прицепиться к базе2 с ключом, продолжающим закономерность ключей в базе2. Как?
> 2. Обновляется существующая запись, что с ней должно произойти,
Если в базе1 - обновить и в базе2.
Только как? Нужно удалить старый вариант и записать новый.
Более типично - приходят новые данные в базу1 по ключам из базы1, нужно добавить записи в базу2 под ключи базы2. Это понятно как сделать - держать словарь ключей база1-база2.
Примечание: база1 - индусская помойка, тянуть их ключи не вариант.
> Ни хуя же непонятно
Пытаюсь написать понятнее, анон
Если я тебя правильно понял, то тебе не нужно записи из всех таблиц копировать. А нужен какой-то механизм интеграции для тех таблиц, в которых ты заинтересован.
Я использовал такой способ:
1. Создаешь в базе1 такие таблицы:
1.1. c_integration_mode - таблица-справочник, в которой будут храниться описания всеего, что ты умеешь интегрировать
id (identity),
name,
description
1.2. t_integration_queue - это будет табличка, в которую будут падать задания для интеграции
id (identity),
integration_mode_id,
object_id (bigint) - айдишник нашей записи, которую хотим интегрировать,
last_sync_date,
is_synced (bit),
last_error
1.3. t_integration_linq - таблица связей айдишников из базы1 и той базы, с которой ты интегрируешься, например, 2
id (identity),
integration_mode_id,
object_id (bigint) - это айдишник найшей записи,
remote_object_id (bigint) - это айдишник записи, которую мы отправили на интеграцию и получили ответ
Значит, что теперь делаешь, когда осилил создание 3 табличек:
1. Инсертишь в таблицу c_integration_mode название своей первой таблички, записи из которых собираешься интегрировать, смотришь, какой айдишник присвоился записи
2. Создаешь триггер AFTER INSERT на ту таблицу, которую собрался интегрировать, в триггере
insert into t_integration_queue (integration_mode_id, last_sync_date, is_synced) select 1 (айдишник, который запомнили в п.п.1), getdate(), 0 from inserted
3. Создаешь хранимку, которая будет курсором ходить по таблице t_integration_queue where is_synced = 0 and integration_mode_id = 1(то число, которое запомнили в п.п.1), заджойнив ее с настоящей таблицей с записями по object_id, и пытаться отправить в другую базу каждую запись по отдельности. (Как отправлять - это уже тебе решать: через линкед сервер, через веб-вызов из бд) Таким макаром ты ничего не проебешь, а так же сможешь получить для каждой записи айдишник (при удачной отправке) или текст ошибки (при неудачной отправке).
В конце курсора делай merge таблицы t_integration_linq, если смог получить айдишник из другой базы
А так же не забудь проапдейтить t_integration_queue.is_synced = 1, чтобы в следующий раз твоя процедурка эту запись не пыталась интегрировать.
Грубо говоря, ты должен создать столько "модов" (integration_mode) и написать столько процедур, сколько у тебя таблиц, которые ты хочешь интегрировать.
Ну и теперь настало время научиться все это запускать - создаешь самую главуню процедуру
sp_process_integration, в которой в правильном порядке (чтобы не нарушить целостность) запускаешь все написанные до этого тобой процедуры
А саму sp_process_integration настраиваешь на запуск через Sql Server Agent.
Если я тебя правильно понял, то тебе не нужно записи из всех таблиц копировать. А нужен какой-то механизм интеграции для тех таблиц, в которых ты заинтересован.
Я использовал такой способ:
1. Создаешь в базе1 такие таблицы:
1.1. c_integration_mode - таблица-справочник, в которой будут храниться описания всеего, что ты умеешь интегрировать
id (identity),
name,
description
1.2. t_integration_queue - это будет табличка, в которую будут падать задания для интеграции
id (identity),
integration_mode_id,
object_id (bigint) - айдишник нашей записи, которую хотим интегрировать,
last_sync_date,
is_synced (bit),
last_error
1.3. t_integration_linq - таблица связей айдишников из базы1 и той базы, с которой ты интегрируешься, например, 2
id (identity),
integration_mode_id,
object_id (bigint) - это айдишник найшей записи,
remote_object_id (bigint) - это айдишник записи, которую мы отправили на интеграцию и получили ответ
Значит, что теперь делаешь, когда осилил создание 3 табличек:
1. Инсертишь в таблицу c_integration_mode название своей первой таблички, записи из которых собираешься интегрировать, смотришь, какой айдишник присвоился записи
2. Создаешь триггер AFTER INSERT на ту таблицу, которую собрался интегрировать, в триггере
insert into t_integration_queue (integration_mode_id, last_sync_date, is_synced) select 1 (айдишник, который запомнили в п.п.1), getdate(), 0 from inserted
3. Создаешь хранимку, которая будет курсором ходить по таблице t_integration_queue where is_synced = 0 and integration_mode_id = 1(то число, которое запомнили в п.п.1), заджойнив ее с настоящей таблицей с записями по object_id, и пытаться отправить в другую базу каждую запись по отдельности. (Как отправлять - это уже тебе решать: через линкед сервер, через веб-вызов из бд) Таким макаром ты ничего не проебешь, а так же сможешь получить для каждой записи айдишник (при удачной отправке) или текст ошибки (при неудачной отправке).
В конце курсора делай merge таблицы t_integration_linq, если смог получить айдишник из другой базы
А так же не забудь проапдейтить t_integration_queue.is_synced = 1, чтобы в следующий раз твоя процедурка эту запись не пыталась интегрировать.
Грубо говоря, ты должен создать столько "модов" (integration_mode) и написать столько процедур, сколько у тебя таблиц, которые ты хочешь интегрировать.
Ну и теперь настало время научиться все это запускать - создаешь самую главуню процедуру
sp_process_integration, в которой в правильном порядке (чтобы не нарушить целостность) запускаешь все написанные до этого тобой процедуры
А саму sp_process_integration настраиваешь на запуск через Sql Server Agent.
Можно конечно и рандом ебануть, но мне надо чтоб под каждой цифрой было одинаково (более менее) записей
Возьми общее количество записей и подели на 8, дальше возьми 8 пачек через limit из этой таблицы и проставь им соответствующие номера.
Ну и где гайд по вкатыванию?
Регулярно код получает около 100 индексов по которым нужно сделать выборку из таблицы.
Как это сделать правильно?
1) выбирать по очереди select * from where
2) залить список индексов в другую таблицу и сделать джойн?
Ubuntu/postgres10
индекс неуникальный
А стоп. Типа не вместе 12345678, а 111112222223333. Ну можно и так
ну смотри, таблица содержит записи начинающиеся с некого неуникального ID
ID,field1,field2,field3....
По этому ID построен индекс create indexindename on table1(ID)
В процессе работы код получает список этих ID из внешнего источника (56,678,1245,...999999)
Нужно достать все записи из БД
UPDATE db.t1
JOIN db.t2
ON t1.id = t2.id
JOIN db.t3
ON t2.id = t3.id
SET col1 = CASE
WHEN col1 != col2
THEN col1 = col2
END
WHERE t1.id = t2.id AND t3.id = t2.id and t1.id = 2
Скачал пример скрипта для поиска дубликатов по несколкьким полям. Поясните плз, как работает.
1) C.. Таблицы C же нет
2) Далее идет вложенный запрос, с этим ясно
3) Е - это таблица с результатами предыдущей конструкции ?
4) JOIN Employees C что за конструкция, почему два набора данных после JOIN ?
SELECT C. FROM ( SELECT FirstName, LastName
FROM Employees
GROUP BY FirstName, LastName
HAVING COUNT(*) > 1 ) E
JOIN Employees C
ON C.FirstName = E.FirstName
AND C.LastName = E.LastName
Сконструируй один запрос
>Select *
>from table1
>where id in (1,2,3,...,n)
В конструкцию in подставь свои айдишники, перечисленные через запятую.
Получишь в плане запроса
>nonclustered index seek
C и E - это аллиасы для таблицы и вложенного запроса, за которыми они идут в тексте запроса.
После джойна у тебя не 2 набора данных, это у тебя вложенный запрос джойнится с таблицей по 2 полям: имя и фамилия.
В чем, вообще, суть запроса.
Во вложенном запросе находятся такие записи, у которых по имени и фамилии в таблице есть более одной записи.
Далее этот вложенный запрос джойнится с той же самой таблицей по имени и фамилии для того, чтобы
Ты мог получить уже айдишникт всех сотрудников, по которым найдены дубли.
Ну напиши селект вместо апдейта, посмотри, сколько записей реально попадают под твои условия.
что у тебя за дб?
у меня задача такая - индексированная таблица на ярд записей и около сотни записей которые там надо найти.
все-таки сотню записей в in перечислять как-то не очень же
Sql-server
>как-то не очень сотню записей перечислять
Так в чем тогда твой вопрос, делай так, как тебе очень.
Создавай таблицы НА ДИСКЕ, инжексируй их, сканируй индекс, все это в системе, небось, где каждая милисекундочка отработки важна, и держи в голове, коннчно же, что такой функционал может работать и одновременно в нескольких потоках, например, где каждый поток будет создавать времянки. Проконсультируйся с тим лидом, а потом напиши его предложение сюда, мб я и ошибаюсь, но пока что не вижу, в чем, я тебе даже план нарисовал - объективно все.
>sql-server
они все SQL, какой именно? mysql? mariadb? postgre? oracle?
>НА ДИСКЕ, инжексируй их, сканируй индекс
не на диске, а в /tmp которая суть рамдиск
Расскажи, что у тебя за субд такая волшебная, в которой времянки создаются в памяти.
Ну и, что самое главное, даже если ты создаешь эту таблицу в памяти, ты, все равно тратишь на это ресурсы, а зачем, когда можно тот же результат получить быстрее без таких манипуляций?
>волшебная
это все нормальные бд умеют, например мускуль
>CREATE TEMPORARY TABLE foobar (id int) ENGINE=MEMORY;
Это отдельный тип табличек - инмемори.
Ну что ж, создавай таблицы в памяти из своего приложения, раз считаешь, что это оптимально. Я по-прежнему уверен, что это говнорешерие.
Но специально для тебя у меня есть еще более удобный способ.
Загружаешь в приложение весь миллиард записей, ну и, конечно же, настраиваешь туда дозагрузку всех изменений. Очень удобно получается, все в памяти, очень быстро будешь все доставать.
ты не понимаешь разницу между
>создать временную таблицу в несколько сотен строк в памяти
>залить в память таблицу на 150 гигов
Создавай, кто тебе мешает.
А, когда ваша система по пизде пойдет, скажешь, что зато на дваче всех убедил, что так надо.
WHERE gender = 1 AND (city = 'Москва' OR city = '')
Чтобы выбрать всех кто из москвы и всех, у кого город не указан
Будет ли тут индекс работать как надо?
Будет работать индекс, просто без age.
Сначала найдет все записи, которве тебе нужны, без условия по age, а дальше уже среди них будет искать по age.
Добавляй, конечно. Тогда и по Age будет поиск работать.
Хочу запилить поиск по тексту. Как сделать лучше: проходить по массиву blocks и проверять значение поля text, или же сделать отдельное поле plainText, где будет храниться чистый текст в виде обычной строки, и проверять это поле?
Да, для поиска обычно делают одно поле, куда, пусть даже с дублированием, но пишут весь текст. Так будет быстрее, думаю.
Так вот, есть возможность заселектить как-то только столбцы с этим префиксом?
Что бы не писать SELECT setting_name1, setting_name2, setting_name3, ... setting_name35 FROM table_x ...
Писать SELECT * FROM table_x тоже не подходит пока что.
Есть конечно.
В любой бд есть системные представленияи таблицы, например, в sql serverэто
sys.columns
И sys.tables
Просто загугли «select table column names <<название субд>>”
Дальше хуяришь запрос к табличке с колонками и выбираешь только те колонки, where name like ‘setting_%’ таким образом, чтобы результатом твоего запроса стал новый запрос, который ты потом и будешь выполнять.
>>318624
Обидно и стремно что нельзя просто сразу написать типа:
SELECT setting_* FROM table_x
или
SELECT setting_% FROM table_x
>чтобы результатом твоего запроса стал новый запрос, который ты потом и будешь выполнять.
Не совсем понятен этот момент. Это в один запрос все то можно уместить? или я делаю сначала первый запрос, складываю результат в переменную в php и потом уже второй запрос формирую вида
SELECT $settingColumns FROM table_x
Если сами делали эту таблицу, то мудаки вы, если нет, то мудаки они.
У меня в таблице есть допустим 64 точки описывающих картинку. Как эти 64 точки захэшировать в строку, чтоб потом по bit_count найти ее можно было? Ну и все похожие на нее
Второй вариант, да. Селектишь набор колонок, перечисленных через запятую в переменную. Дальше вторым запросом формируешь селект $колумнс, как ты и написал.
Для каких целей, вообще скл серверу гпу?
UML
Как реализованы на вебстраницах ТЕГИ.
Тобишь под статьей облако тегов.
Типа есть таблица статей, таблица тегов, и таблица соединяющая их?
Это самый оптимальный вариант илиесть проще и лучше?
Оптимальнее по скорости поиска в обе стороны(статья ->теги, тег-> статьи) сложно представить, если честно.
Под кластеризацией ты что понимаешь? Если деление на группы, то тебе в тред про нейроночки и машобчик.
Какие еще есть пути? Хочу вкатить в бизнес-аналитику, но там без sql никуда. Есть вышка, но какая - даже писать стыдно.
PS Раньше мог писать простенькие новеллы в рен пай на питоне, т.е. код для меня это не непонятные закорючки и точечки.
Вот пример.
http://www.sql-ex.ru/learn_exercises.php?LN=18 - Задача
https://pastebin.com/AehjHCGw - Мой высер
Правильное решение показывает с одной строкой. Но мой высер, по идее, логичен и показывает все подходящие варианты. Где соснул?
У тебя в запросе
>from product, printer
просто одна таблица умножается на вторую, их еще заджойнить нужно, плюс у тебя идет проверка на минимальную цену цветного принтера, но а самом селекте выбираются все принтеры, даже не цветные.
Я бы написал, вообще, вот так
>select distinct maker, price
>from (
>Select TOP 1 WITH TIES
> p.maker
>,pr.price
>from Printer pr
>inner join Product p on pr.model = p.model
>where pr.color = 'y' and pr.price is not null
>order by pr.price asc
>) dat
Но, если исправлять твой запрос, то
>select distinct maker, price
>from product, printer
>where price = (select min(price) from printer where color = 'y')
>and printer.color = 'y'
>and product.model = printer.model
Орм - хз, какие там у джавистов
Индексы, как работают, какие бывают,
Планы запросов, типы джойнов для оптимизатора - хэш, луп, мёрдж
Оконные функции (а к а OVER ())
ты передаешь не функцию, а строку. Внутри строки ты можешь подставить переменную, но и то должны быть двойные кавычки, ну или делай склеивание
'... VALUES ("", "zalupa",' . date('pizda) . ', "sir")';
Есть индексы кластерные и некластерные.
На одну таблицу может быть создан один кластерный индекс и сколько угодно некластерных.
Если кратко, то для того, чтобы некластерные индексы работали, нужно, чтобы на таблице был кластерный индекс (Primary key - это уникальный кластерный индекс, если што), который, как раз, и создается зачастую (необязательно, но желательно) на основе уникального поля, типа id или комбинации полей, по которому/ой можно однозначно идентифицировать строку в таблице.
Материализованные представления, ВНЕЗАПНО.
Загуглил бы, на крайний случай.
Это таблица-вьюха на таблицу, которая обновляется физически вслед за родительской таблицей. Нюансов не то чтобы миллион, но они есть и анон с двача тебе все не расскажет в одном посте, потому если тебе это реально нужно - иди на docs.oracle.com и читай там про materialized views.
Бтв если ты про матвьюхи не знаешь, то вряд ли у тебя есть опыт разработки pl/sql, так что если надумаешь идти на собес - пройди хоть какой-то курс в инете, что ли.
(
ABS(s0 - 1) +
ABS(s1 - 1) +
ABS(s2 - 1) +
ABS(s3 - 1)
) < 5)
Тут нужно на s0, s1, s2, s3 индексы ставить?
С таким запросом тебе никакие индексы не помогут, они тупо работать не будут, потому что ты к полю применяешь функцию, а потом уже ещешь по ее результату.
Сначада добавь в таблицу вычислимое поле в виде
>alter table tbl_tvoya_tablica add your_column as ABS(s0 - 1) + ABS(s1 - 1) + ABS(s2 - 1) + ABS(s3 - 1)
А потом уже на него создавай индекс.
>create nonclustered index IX_tbl_tvoya_tablica_1 on tbl_tvoya_tablica (your_column)
Ну и, сосбна, твой запрос
>where your_column < 5
Да не, вместо 1 разные числа будут. Значит без индекса будет
Сап, анон. Хелп.
Короче в моей мухосрани есть вакансия "Младший программист баз данных".
Требований нет, кроме высшего образования и "голод новых знаний". Но в графе преимущества у них указано:
опыт написания запросов SQL или работа с любыми базами данных?
опыт разработки приложений БД и тест кейсы(что это?).
Так вот, вакансия приглянулась, только вот я хочу подтянуть знания SQL с ни@уя.
Вопросы:
Где лучше подготовиться и сколько времени займет? Мне как вы понимаете не нужно знать много, но так как я слышал, что в этой компании на вакансию консультант дают решать IQ тесты, лучше уж подготовиться.
Нужно ли знать вышмат?
Нужно ли знать алгоритмы?
Что запилить, что бы показать, что вот мол могу работать?
Что такое тест кейсы?
не могу найти Security
Алеша, вангую, что ты dbo
В оп посте ж написано - sql ex
Да понятно, но пожалуйста ответьте на другие вопросы. Алгоритмы нужны?
Допустим, я выбрал запись с id = 393.
Как мне получить запись, находящуюся на 3 позиции дальше заданного id?
Нельзя тупо приплюсовать 3 к id, ибо строки из БД могут удаляться и в таблице могут отсутствовать некоторые id.
Эффект утки работает. Всегда полезно поговорить с самим собой.
Похоже что решение до гениального просто:
SELEСT * FROM articles WHERE id > 350 LIMIT 20
Я просто ищу id'ы больше заданного, но ограничиваю работу mysql нужным лимитом.
Правда все равно есть проблема.
При больших величинах смещения mysql будет один хуй обходить все тысячи/миллионы записей, чтобы выдать мне последний id.
По идее, насколько я понимаю, невозможно это оптимизировать.
Есть некий select с заданным сложным where. Нет иного способа получить дальние id'ы этого запроса, кроме как пробежав по всей таблице.
Как выход, можно использовать примерные значения.
Если записей у меня реально дохуя, миллионы, и при условии того, что число удаленных записей << число существующих записей, то можно таки тупо примерно попадать на нужную страницу путем тупого приплюсовывания к id нужного значения.
Однако, даже если в таблице на миллион записей удалено 2 сотни, то погрешность при навигации в 200 записей существенна.
С другой стороны, достаточно приемлимо сначало попасть примерно в нужное место таблицы, а затем точно в нужное место.
Select
a.*
From articles a
Where a.id >= (select id from articles ar where ar.id = 393)
Limit 3
Вот тебе с работающими c индексами запрос.
Более точно напишу, чтоб вопросов не было:
Select dat.
From (
Select
a.
From articles a
Where a.id >= (select id from articles ar where ar.id = 393)
Order by a.id
Limit 3
) dat
Order by dat.id desc
Select dat.звездочка
From (
Select
a.звездочка
From articles a
Where a.id >= (select id from articles ar where ar.id = 393)
Order by a.id
Limit 3
) dat
Order by dat.id desc
Limit 1
Спасибо! По сути, от вышеописанного это отличается лишь тем что благодаря подзапросу не нужно пересылать массив id на клиент.
То есть, так бы я сделал в 2 шага:
1. Выбрать id > 393
2. Взять из них последний и получить.
Нет, по сути я говно рещение предложил, твое стоило использовать, как базовое:
select dat.звезда
from (
select
a.звезда
from articles a
where id> 359
limit 2
) dat
order by dat.id desc
limit 1
Вот так будет правильнее всего.
Так-то при простом выполнении UPDATE он как бы является транзакцией и никто не сможет прочитать строку до того, как завершится ее обновление.
При сложном запросе с подзапросами и прочей хуйней происходит так же?
Ок
Посоветуйте годноту обновить студенческие знания про нормализацию и прочие ЕР-диаграммы.
Насколько эти знания актуальны в реальных крудах?
Про асид и особенно транзакции что можно почитать?
Что про хранимые процедуры?
Насколько глубоко это всё джуниору нужно знать?
Сейчас юзаю майэскюэль, потом думаю постресс глянуть
С этим великолепно справится аналитическая функция LEAD, если речь идёт о нормальной СУБД (в оракле справится точно, в MS SQL с большой вероятностью).
Да и любая аналитическая функция, можно отранжировать по ид и взять третий...
Да, знаю, что русек в ide это плохо, но я перейду на англ версию когда освоюсь тут.
И у меня название таблицы position какого-то хера в кавычках.
Всё, не надо. Разобрался.
Вот с этим помохити
Из экселя не могу импортировать.
И да, я знаю, что full name надо разделить на first и second, но я пока не знаю как
>Я заебался мусор собеседовать
А стажёра на 4 курсе с опытом поддержки систем на пл/скл возьмёшь?
Банк топ10, Москва, название на дваче палить негоже, все хорошо с соцпакетом и стабильностью.
Делаем отчетность, селекты и процедуры на оракле (реже вертика), визуализация в ssrs (реже tableau), это научим, там все изи. От вас исключительно знания БД и сообразительность.
ЗП +- рыночная, не обидим.
>>335833
Возьму с радостью, если умный!
Кидайте резюмехи, можете пока лицо и ФИО замазать, интересуют только скиллы и опыт. Если понравитесь, кину ссылку на hh куда откликаться.
Естественно, это же разные таблицы, там не должно быть всё одинаково. Он только на этот foreign key ругается, но без него нельзя.
>foreign key ругается
Тебе нужно заполнить сначала главную таблицу, затем заполнить с форейгн кей.
Скочал я СКУЛайт. Занес его в РАТН. Теперь из CMD могу работать с sqlite3 из любой директории. Но если я пытаюсь вызвать скулайт из терминала ВСкод, то не работает. ЧЯДНТ?
И вопрос 2: создал я db.sql с кодом
... с кодом:
CREATE TABLE cities (
id INTEGER PRIMARY KEY AUTOINCREMENT,
name VARCHAR(255) NOT NULL UNIQUE,
active BOOLEAN NOT NULL DEFAULT TRUE
);
Но когда я пишу .read db.sql, то консоль пишет
Error: near line 1: file is not a database
ЧЯДНТ?
А, ну и еще ВСкод ругается на
Incorrect syntax near ','. Expecting ID, QUOTED_ID, STRING, or TEXT_LEX.
и
Incorrect syntax near '255'. Expecting '(', or SELECT.
Бля, хуй к твоему вопросу подступишься, везде, сука ошибки, то ты неправильно вызываешь, то у тебя скл неверный, пиздос, еще и в трех постах, и ни хуя непонятно, где именно ругается, на той же команде?
Сделай все в одном посте и приложи скрины, пожалуйста. Ты сам почитай, что ты несешь, такое ощущение, что у тебя 30 секунд было времени, чтобы все написать, а потом у тебя кудахтер отобрали.
Анон, подскажи каким образом индекс по pk делает выборку по pk быстрее? У нас ведь остаётся ровно столько же записей в таблице индекса, соответственно и скорость обхода этих записей должна быть примерно одинаковой с основной таблицей.
-SQL запрос медленно выполняется, как его ускорить.
Отвечаю про план исполнения и индексы, но ИРЛ особо этим не занимался, что-то еще можно к ответу добавить?
Хинты, партиции?
>План запроса
А что делать-то, когда ты план прочитал?
1. Индексы
2. Статистика
3. Локи
4. Диски
5. Подзапросы, мб можно на вермянки переделать
6. Кэш запроса (where user_id = @user_id or @user_id is null) - всегда будет сканировать таблицу полностью, узнай, что с этим делать
7. Определение признаков, по которым идет поиск, не в самом запросе, а на этапе загрузки данных (например, where user_name like '%admin%' - проще пометить пользователя признаком user_type_id = 1, а потом искать по нему)
Короче, полно есть способов оптимизировать,
Как называются huinyaname?
Схема
А где гайд как в катиться-то? Книги, сайта, порядок изучения технологий и т.д.?
В которой очень много очень запутанных ролей и ограничений.
Многие ограничения прописаны в триггерах, мол, при апдейте govno_table.column_1 сверяет имя юзера с прописанным списком (user1, user2 ...) и либо дает право либо не дает апдейтить.
Так вот. Есть ли какой-то универсальный способ как узнать, что может конкретный юзер делать с конкретными табличками и столбиками?
В SQL Server выборка быстрее по некластеризованному уникальному ключу, чем по primary, если не изменяет память. Как - хз
Съебись с треда, чмо.
Кластеризованный индекс в Оракле называется index organized table. Некластеризованные, естественно, есть - это любой индекс по обычной таблице, или вторичный индекс по index organized table.
Спасибо, няшь, я разобрался.
А где какие нужно юзать кластерные в ОЛТП и некластерные в ОЛАП или наоборот?
Ну грубо говоря да. Если ты хочешь в скорость и выборка в основном идёт по примари кею, то кластеризованный индекс - твой лучший друг.
Он >>344071 тащемта прав, но немного тебя сейчас запутает.
В OLTP-системе нежелательно загружать таблицу чем-то сверх минимально необходимого, т.к. это будет замедлять каждую транзакцию.
А в OLAP-системе можнов принципе все, что может ускорить частые запросы к таблице. То есть нужно учесть, как именно пользователь обращается к базе, а не просто вешать индекс по уникальному полю.
>нежелательно загружать таблицу чем-то сверх минимально необходимого
В смысле не загружать индексами совсем?
Я не могу сделать некластерный индекс не по ключу или кластерный индекс "загружает" таблицу меньше чем кластерный?
Нет, тут суть в другом.
В оракле индекс-организованная таблица - это таблица, строки которой лежат в листовых блоках индекса. Т.е. сначала строится индекс, а вокруг него - таблица. Смысл в том, что поиск будет производиться по индексу, а вся строка - вот она, доступ быстрый. Поэтому и >>344099. Но это дело работает хорошо в случае поиска.
В случае обычного индекса в листовых блоках лежат rowid искомых строк, на доступ к ним потребуется время. Здесь важен фактор кластеризации - это такая штука, которая говорит, разрознены ли блоки таблицы относительно индекса в ТБС. Если да - то при чтении соседних блоков индекса придется читать разные хер знает где лежащие блоки таблицы.
Кластер(речь не о нем, но расскажу тоже) - это две таблицы вокруг одного индекса. Ну, то есть у них два поля общих и на них висит индекс, а остальные - как хочешь. Можешь обращаться хоть к одной, хоть к обеим, но все равно строки обеих таблиц лежат в одном блоке. Чем-то похоже на join с using, грубо говоря.
Почему это загружает OLTP-систему. Каждый DML над индексированным столбцом будет вызывать перестройку индекса (кроме удаления - там просто освобождение блока для последующего вероятного использования до move/shrink). То есть как вставка в середину массива - нужно будет "раздвинуть" все блоки для вставки нового.
И если IOT-таблица обновит тебе сразу и индекс, и таблицу одновременно, то при обычном индексе будет отдельно обновляться блок таблицы и отдельно индекса.
И на это тоже нужно время. Как и на срабатывание + выполнение триггера.
В OLAP-системе в этом плане проще, там нужна скорость поиска, а не скорость транзакций, там можно вешать индексы так, как хочется/нужно.
У нас в транзакционной системе индексов мало, как и триггеров, а в аналитической - в интерфейсной области их вообще нет, чтобы не замедлять выгрузку данных из систем источников.
>Я не могу сделать некластерный индекс не по ключу или кластерный индекс "загружает" таблицу меньше чем кластерный?
Индекс можешь вешать на что хочешь, а вот будет ли он использоваться - это другой вопрос, зависит от обращений к таблице. Грузит он DML в эту таблицу.
Но просто так в оракле ты не повесишь кластерный индекс - вон, анон выше упомянул, что это при создании таблицы указывается. А грузить DML это тоже будет, так как это тоже индекс - перестраиваться он будет при каждом DML.
здесь под DML - insert/delete/update индексированного поля.
Нет, тут суть в другом.
В оракле индекс-организованная таблица - это таблица, строки которой лежат в листовых блоках индекса. Т.е. сначала строится индекс, а вокруг него - таблица. Смысл в том, что поиск будет производиться по индексу, а вся строка - вот она, доступ быстрый. Поэтому и >>344099. Но это дело работает хорошо в случае поиска.
В случае обычного индекса в листовых блоках лежат rowid искомых строк, на доступ к ним потребуется время. Здесь важен фактор кластеризации - это такая штука, которая говорит, разрознены ли блоки таблицы относительно индекса в ТБС. Если да - то при чтении соседних блоков индекса придется читать разные хер знает где лежащие блоки таблицы.
Кластер(речь не о нем, но расскажу тоже) - это две таблицы вокруг одного индекса. Ну, то есть у них два поля общих и на них висит индекс, а остальные - как хочешь. Можешь обращаться хоть к одной, хоть к обеим, но все равно строки обеих таблиц лежат в одном блоке. Чем-то похоже на join с using, грубо говоря.
Почему это загружает OLTP-систему. Каждый DML над индексированным столбцом будет вызывать перестройку индекса (кроме удаления - там просто освобождение блока для последующего вероятного использования до move/shrink). То есть как вставка в середину массива - нужно будет "раздвинуть" все блоки для вставки нового.
И если IOT-таблица обновит тебе сразу и индекс, и таблицу одновременно, то при обычном индексе будет отдельно обновляться блок таблицы и отдельно индекса.
И на это тоже нужно время. Как и на срабатывание + выполнение триггера.
В OLAP-системе в этом плане проще, там нужна скорость поиска, а не скорость транзакций, там можно вешать индексы так, как хочется/нужно.
У нас в транзакционной системе индексов мало, как и триггеров, а в аналитической - в интерфейсной области их вообще нет, чтобы не замедлять выгрузку данных из систем источников.
>Я не могу сделать некластерный индекс не по ключу или кластерный индекс "загружает" таблицу меньше чем кластерный?
Индекс можешь вешать на что хочешь, а вот будет ли он использоваться - это другой вопрос, зависит от обращений к таблице. Грузит он DML в эту таблицу.
Но просто так в оракле ты не повесишь кластерный индекс - вон, анон выше упомянул, что это при создании таблицы указывается. А грузить DML это тоже будет, так как это тоже индекс - перестраиваться он будет при каждом DML.
здесь под DML - insert/delete/update индексированного поля.
Решение крайней задачки на текущей момент получилось таким:
```
WITH query as
(
SELECT TOP 0 1 as code,1 as point,1 as date,1 as inc,1 as out
UNION
SELECT code, point, date, inc, NULL AS outcome
FROM income
UNION
SELECT code, point, date, NULL as inc, out
FROM outcome
)
SELECT point, date, SUM(out), SUM(inc)
FROM query
GROUP BY point, date
```
Чем больше узнаю, тем больше чувствую себя больным ублюдком. Пожалейте меня. Впереди ещё столько задачек!
Sum(number) over(partition by id order by dt rows between 19 preceding and current row)
Мог бы и погуглить аналитические функции и узнать про окна, а не говорить, что не получается.
триггер, который при обновлении строк записывает текущую дату в соответствующую колонку. ЧЯДНТ? эта штука зачем-то у ВСЕХ строк изменяет дату обновления, а не у строк, которые обновили
CREATE TRIGGER my_trigger
__ON table_name
__AFTER UPDATE
AS
BEGIN
____DECLARE @str varchar(8)
____SET @str = CONVERT(varchar(12), GETDATE(), 100))
____UPDATE table_name
____SET BKTXT = (@str)
____FROM inserted
END
GO
это открытие
>оп посте 0 инфы с чего начать изучение
БД просто так не учат!
Если пора подключать бд, то уже значит вкатальщик шарит чутка, если шарит то загуглит что и как учить.
А если я хочу стать DBD, мне же не обязательно знать более высокоуровненвые ЯП, мне можно просто учить сиквел, а я не знаю как.
Глянул, что ты мне сделаешь?
Поставь себе какой-нибудь pgadmin или mysql workbench, читани книжку Бена Форта "Освой sql самостоятельно за 10 минут" она для начинающих реально очень хороша и вперед хуярить запросы прямо из этих приложений без всяких ЯП.
какой вписать макрос, чтобы excel автоматически давал гиперссылку на файл pdf, находящийся в той же папке, что и файл xls, если название файла pdf указано в ячейке
название файла в ячейке прописано не текстом, а через команду "сцепить"
объекты FSO подключи а дальше сам догадаешься
Я же не ОП, чтобы шапку пилить.
Дальше наделай себе разных жирных таблиц с кучей внешних ключей и упражняйся в написании эффективных запросов. А вообще тебе наверное надо на sql-ex.ru
Мира во всем мире
Сори, я заметил что проебланил с тредом, я совсем ньюфажка.
Не знаю, как это точно называется в транзакте, но гугли что-то вроде new и old в триггерах.
Ты не понял сути. Триггер for each row умеет работать конкретно со вставляемой строкой, а не с таблицей, тебе это и надо.
Да потому что ты запрос пишешь криво.
Update t
set ...
from table_name t
inner join Inserted i on t.id = i.id
У тебя же просто апдейт всей талицу происходит.
мидл питонист
Например есть фио, отметка о посещении, дата посещения и группа, нужен запрос для того чтобы вывести конкретную группу и всех её воспитанников ебусь с этим 3 дня
Конечно, можно.
Есть такие сервисы, как азур, но там ты будешь платить за мощности.
Можешь просто арендовать сервер, на который поставишь субд, например, на ru-vds(там дешево)
Наконец, есть и бесплатные веб-хостинги, на которых можно размещать небольшие базы, в основном, my sql, конечно, однако: открыл вот для себя gearhost, на нем можно и sql server иметь.
Использовать для сайта точно так же, как и для приложения.
Пихать можно себе в анус куда угодно, если ты хочешь использовать ее для сайта, просто пишешь у себя строку подключения, в которой указываешь расположение склайт базы, например,
>SqliteConnection con = new SqliteConnection("Data Source=c:\mydb.db;Version=3;");
В частности, интересует сравнение sql и документоориентированных баз, где их лучше применять, как с ними лучше работать.
Обычно, user - это функция, возвращающая имя текущей схемы.
Попробуй "user"(именно в кавычках). В оракле точно прокатит, у тебя не знаю.
расскажите, как мутить авторизацию через бд из обычного десктопного приложения или хотя бы ткните ссылкой
разве в этом случае не работает спрос\предложение?
Укажите направление, что мне читать и изучать для моей нужды?
А именно. Надо создать базу данных на компе и туда транслировать информацию через вебсокет с сайта.
В этом вашем программировании не разбираюсь, но буду читать все что вы мне скажете.
1) Что это за хренота?
2) Какие у нее перспективы?
3) Стоит ли оно того?
Я вроде как на распутье, но совершенно не уверен, стоит ли даже думать об этом направлении и уж тем более выбирать его
>1) Что это за хренота?
Это CRM. Customer Resource Management
>2) Какие у нее перспективы?
Против Salesforce иои SAP - никаких
>3) Стоит ли оно того?
Не стоит. Быстро сдегродируешь с прогера до внедренца-консультанта
Реквестирую. Или сам пойду составлять из того, что знаю, и искать что-то новое.
Реляционная алгебра и реляционное исчисление будут хорошим подспорьем.
SQL это как бэ уже для продвинутых чуваков, кто круды писать начинает, обычно к этому времени люди умеют гуглить и самостоятельно искать инфу.
За все время что я тут сижу упоминали 2 книжки и онлайн ресурсы про которые я уже знал.
>обычно к этому времени люди умеют гуглить
Гуглить не проблема, проблема в том, что не хочется тратить время на заведомо плохие варианты.
Хочется
>концентрированной годноты
а не наворачивать условный %сайт-книга-нейм% и спустя неокторое время найти %другой_сайт_книга_нейм% с более полной и полезной инфой.
Например, https://www.tutorialspoint.com/sqlite неоче в сравнении с http://www.sqlitetutorial.net .
Или же вот код для создания бд для примеров из книги [Clare_Churcher]_Beginning_SQL_Queries содержит ошибки в синтаксисе и местами кривые данные (лишние пробелы), а пулреквесты с багфиксами висят второй год. Что намекает на то, как автор относится к своей работе. И так далее, и так далее.
>что не хочется тратить время на заведомо плохие варианты
Там же повторение мать ученья! Ну про бежал ты по плохому как ты думаешь варианту, а после опять с нуля по другому. Так и закрепишь свои знания.
А потом уже можно вдумчиво читать книгу на 1000 страниц.
Я прочекал https://www.w3schools.com/sql/default.asp
Дальше буду https://sqlzoo.net/
Притом я круды пишу уже во всю с джоинами и до книг ещё не дошёл
>Там же повторение мать ученья! Ну про бежал ты по плохому как ты думаешь варианту, а после опять с нуля по другому. Так и закрепишь свои знания.
Я бы поспорил, но у меня нет аргументов мне лень.
Годнота, особенно self join с автобусными маршрутами. Хотя quizzes местами показались мне невероятно тупыми и бессмысленными.
Есть две таблицы
tabl1: id и названия организаций, всего 100 организаций
tabl2: непосредственно данные по организациям
типа id;year;sales;manager. Тут на одну организацию по несколько строк, например, в году 2016,2017,2018.
Данные есть не по всем организациям, поэтому число уникальных id в tabl2 меньше числа id, например, всего 50.
Хочу сделать sum(tabl2.sales) и JOIN с tabl1, чтобы было видно, по каким организациям есть данные по сумме, а по каким нет. Т.е. будут делать OUTER.
SELECT tabl1.id, tabl1.id, SUM(tabl2.sales) as 'sales'
FROM tabl1
LEFT OUTER JOIN tabl2
ON tabl1.id=tabl2.id
GROUP BY tabl2.id
Но мне выдаётся не 100 строк, а 51:
50 строк заполненных и за оставшихся организаций,по которым нет данных в tabl2, т.е. их id нет в tabl2.id, выдаётся только одна (соответственно, с пустым полем 'sales')
Это из-за того, что в скрипте GROUP BY (tabl2.id) и ему нечего группировать по тем id, которых нет в tabl2 ?
Если так, что можно ли вообще сделать такое - совмещать первую и вторую таблицу так, чтобы в первой была группировка по id, а из второй включались все id, даже если каких-то из них нет в первой ?
>из-за того, что
да
>из второй включались все id, даже если каких-то из них нет в первой
FULL JOIN?
Спасибо за быстрый ответ!
Я в MySQL сижу, там FULL JOIN не работает.
http://www.sql-tutorial.ru/ru/book_full_join_and_mysql.html
Ошибки на слово FULL не выдаёт, но начинает писать, что нет такого-то столбца из первой таблицы
Unknown column 'tabl1.id' in 'field list' */
Хотело бы как-то попроще сделать, а не писать программу, копировать базу в какой-нибудь SQLite (и то я не уверен, что там это поддерживается)
у тебя как в Т1, так и в Т2 могут быть уникальные идектификаторы?
если нет, то сджойни Т2 на Т1, наоборот т.е. и группируй как тебе надо
Т1- общий список компаний.
T2 - данные по компаниям, на каждой строке по такому-то году. По каким-то годам есть, по каким-то нет. Каких-то компаний из T1 в T2 вообще нет. Т.е. id в T2 неуникальны (а уникальных меньше, чем в T1), поэтому там нужна сумма T2.sales с группировкой по id.
> сджойни Т2 на Т1, наоборот т.е. и группируй как тебе надо
Не работает, пробовал LEFT OUTER JOIN T1 на T2 и
RIGHT OUTER JOIN T2 на T1. То есть работает, но не выдаёт T1.id полностью, как мне нужно
Работает только
SELECT DISTINCT(table1.id) ....
...OUTER JOIN
вот тогда на самом деле в столбце id выдаются все 100 id из table1, с NULL там, где по таким id нет записей в table2.
По идее, нужно GROUP BY применять к результирующей таблице, но скрипт как-то по другому работает
PS в таком случае с DISTINCT нельзя применять SUM,
Делаешь фулл джоин через юнион двух соединений и сверху пишешь селект с group by nvl(id_t1, id_t2).
Только что за такой справочник компаний, в котором не все компании присутствуют?
В справочнике tabl1 все присутстсуют (есть все id, например, их 100 штук)
В таблице данных tabl2 не все компании присутствуют вообще (например, уникальных id всего 50), не все компании могут присутствовать по какому-то конкретному году. Например, по 2017 их всего 30.
Запутал ты нас.
То, что в t2 - это называется неуникальное поле и все.
Делай тогда то, что я следующим сообщением написал - группируй по полю tab1.id и решится твоя проблема.
Подскажите какую-нибудь относительно удобную библиотеку для работы с MS SQL Server из C++/GCC под никсами?
Короче, подскажите, как принято моделировать заказы в интернет-магазинах? Я запутался в сущностях.
1. Cart (aka Basket) vs Order. Это отдельные сущности или одно и то же. Потому что корзина по сути это те же самые заказы. И смотрел библиотеку одну, там тоже корзина это просто заказ в статусе "cart". Хотя с другой стороны это вроде не одно и то же, и корзины могут быть брошены и анонимные, негоже им быть вместе с заказами.
2. Invoice. Не могу понять ни бухгалтерский ни технический смысл этой сущности. Это факт оплаты?
3. Payment, Checkout. Кажется это то же самое что Invoice?
В библиотеке (движок для ИМ на рельсах) я нашел только две сущности - Order (корзина + заказы) и Payment. Но поскольку у меня не было опыта работы с этой предметной областью, боюсь либо недомоделировать либо нагородить лишнего.
Я бы сделал Order как уже готовый к исполнению заказ. Т.е. выбор сделан, оплата произведена, товар идет дальше по этапу отправки-доставки.
А Cart/Basket это набор потенциальных Order, которые еще не приняты к исполнению.
Invocie - https://ru.wikipedia.org/wiki/Инвойс
Братюни, спасибо, буду смотреть
>А Cart/Basket это набор потенциальных Order, которые еще не приняты к исполнению.
Я не понял что ты предлагаешь, отедельную сущность или одну и ту же? Если отдельную, то объясни свой выбор.
И что это объясняет, в чем физический смысл этого понятия?
cart - то что покупашка еще собирается купить, order - то что покупашка уже оформляет.
invoice - я так понимаю платежный документ или выставленный счет к оплате.
payment - сам платеж, факт оплаты, checkout - заказ, который ожидает оплаты
Прошу помочь определить оптимальный способ решения задачи. (oracle db)
Есть таблица t с атрибутами n1..n10 и внешним ключом k, k - не уникальный.
Есть процедура, которая сначала удаляет из t все записи с определенным k, а затем итерационно обрабатывает некие данные и результат записывает в t с тем же значением k.
После наполнения таблицы t необходимо по созданным записям построить отчет.
Вот тут возникает вопрос, как лучше поступить: держать созданные записи в памяти (pl/sql таблица) или же выполнить select из t по ключу k. Commit в процедуре выполняется после построения отчета.
При этом существует вероятность, что процедура может быть запущена одновременно под другой сессией со всеми вытекающими (фантомное чтение и пропажа апдейта).
поправлюсь, пропажи апдейта там быть не может
Да вы издеваетесь надо мной, посоны? Что ты мне объясняешь, как менеджер блондинке. Я же пришел спросить как сущности проектировать, а не что эта иконка обозначет.
А что вообще за такой страшный процесс?
В таблице лежат строки с ссылками на другую таблицу, но конкретно какие-то обновить нельзя, потому нужно прям все удалить, а потом вставить заново - т.е. это уже другой набор данных совсем?
Нельзя обойтись меньшей кровью и просто обновить существующие записи?
По сути таблица t - состояние неких объектовв, каждая строка таблицы - это какое-то свойство конкретного объекта. Свойства одного объекта объединены ключом k. Т.е. запуская операцию мы получаем состояния объектов на момент запуска (в идеале так хотелось бы). И после получения состояния всех объектов рисуем по этой таблице отчет.
Сорян тогда, могу только посоветовать загуглить туториал по созданию инет-магазов.
>отедельную сущность или одну и ту же? Если отдельную, то объясни свой выбор.
Либо флаг/статус в Order, (товар только в корзине или уже в обработке), либо отдельная сущность для Order, которые только в корзине.
Так и говори - горизонтальная таблица. Ещё небось внешний ключ+идентификатора свойства можно выделить как первичный ключ, а рядом несколько полей для каждого возможного типа данных этого свойств?
Ну так почему нельзя обновить каждый объект без удаления его из таблицы?
В хранимках, представляющих из себя простое апи, и отрабатывающих за константное время, ничего плохого нет. Ну типа процедура обновления объекта, которая проверяет все поля, и кроме обновления создаёт запись в исторической таблице.
А вот писать на них кучу логики, это зло как с точки зрения превращения кода в трудноподдерживаемую лапшу, так и производительности и масштабируемости.
Если коротко - тому что это легаси-говно с тысячами строк кода, который делает инсерты в эту таблицу и рефакторингом заниматься нет ни времени, ни желания.
Есть неизменное условие - таблица очищается по ключу k, затем магическим образом инсертятся строчки. Лучшее что могу сделать отлавливать то, что попадает в таблицу.
По-хорошему, ты должен проявить инициативу и выбить время на рефакторинг этого говна.
Но раз тебе лень, то что я могу сказать.
Тогда к твоему вопросу. Коммит только один и только после построения отчёта?
Либо забей(в течение одного pl/sql блока, запущенного до коммита самой первой обработки все увидят одинаковые данные, хотя на диске уже будут лежать другие), либо раздели логику на два этапа - один раз обновляешь этим ебнутым способом записи, коммитишь, а потом сколько хочешь раз строишь под этим записям отчёт.
Можно даже сделать проверку - если такая-то запись а логе об обновлении есть, то запустить процедуру формирования отчета сразу, если нет - сначала обновить нужное.
>Ну типа процедура обновления объекта, которая проверяет все поля, и кроме обновления создаёт запись в исторической таблице
ну это уже логика. и вопрос ее расширения - это вопрос времени
>проявить инициативу и выбить время на рефакторинг этого говна.
Это не реально сделать по причине сроков, моя лень тут не причем, будь моя воля и месяц рабочего времени переписал бы эту хуету.
Чтобы было понятнее - вот пример строк из таблицы.
У нас есть некоторый объект который состоит из свойств-объектов. Можно представить в виде дерева на первой пикче, в таблицу же пишутся свойства вложенных объектов, которые не удовлетворяют определенным правилам, точнее пишется, что именно не так с ним (логиурется ошибка) Одна из подпроцедур как раз и проверяет валидность объектов и делает вставку в t, если какое-то свойство невалидно.
Так вот на момент запуска основной процедуры не известно как состояние объектов, так и сколько всего вложенных объектов каждого класса и значения их свойств. Может получится так, что и объекта суперговно уже нет. Видимо поэтому сделали удаление, а потом заполнение по новой.
И вот после того как новый лог зафиксируется (читай отработает процедурка логирования) - нужно получить отчет.
Есть кто много работает с PostgreSQL и 1С? сейчас переводим файловую базу на эту СУБД и вроде норм работает, но вот в номенклатуре ставишь цены и начинает по 3 секунды думать, а в файловом варианте все мгновенно считает
Тест Гилева показывает 32 балла
Почему притормаживает не можем понять
1С-ник говорит, что доработки не нужны при переходе с файловой на СУБД, а я думаю, что при переходе оптимизация в любом случае нужна, также мы используем SSD и конфиг PG вроде на максимум выкручен
Может быть надо еще быстрее диски? PCI-E например под запись в 1000МБ и чтение в 1500МБ?
СУБД пробуем и на винде и на линуксе - на линуксе 32 балла в Гилевском, на винде 22 балла
Может есть какие-то версии PG, линукса и 1С, которые совместно работают отлично?
Пробовал PG 9.2, 9.6, 11.1 на CentOS6, UbuntuServer14.04 и PG 9.6, 10.5 на Win2013R2
1С 8.3 КА
брал готовые сборки 9.2, 9.6 для линукса с сайта официального сайта 1С и PostgrePro там тоже для 1С сборки
для винды 9.6 и 10.5 с официального сайта 1С
то есть пробовал разные миксы для 1С, кроме 11.1 она сама по себе просто самая последняя. Может есть какие-то отличные проверенные версии? 1С 8.3.13.1690, база 25Гб, хотя сейчас на файловой работают на старой версии 8.3.6
сервер с 24 ЦПУ, 25Г ОЗУ, ССД с 200МБ запись\400МБ чтение для баз и системы
а конфиг большой
основные параметры для_винды:
users=100
ssl=off
shared_buffers = 2GB
temp_buffers = 16MB\t
work_mem = 16MB\t\t
maintenance_work_mem = 256MB
bgwriter_delay = 100ms\t\t\t
bgwriter_lru_maxpages = 1000\t\t
bgwriter_lru_multiplier = 4.0
max_worker_processes = 24\t\t
max_parallel_workers_per_gather = 12
wal_level = minimal\t\t\t
fsync = off\t\t\t\t
synchronous_commit = off\t\t
wal_sync_method = fsync\t
wal_buffers = 16MB
checkpoint_timeout = 60min\t\t
max_wal_size = 3GB
min_wal_size = 1GB
checkpoint_completion_target = 0.8
archive_mode = off
enable_mergejoin = off
enable_nestloop = off
random_page_cost = 1.1
effective_cache_size = 18GB
default_statistics_target = 500
join_collapse_limit = 1\t
autovacuum = on\t\t\t
autovacuum_max_workers = 20\t\t\t\t\t\t
autovacuum_naptime = 20s\t\t
autovacuum_vacuum_scale_factor = 0.005
autovacuum_analyze_scale_factor = 0.02
escape_string_warning = off
standard_conforming_strings = off
для_линукса:
users=100
ssl=off
shared_buffers = 5GB
temp_buffers = 16MB\t
work_mem = 16MB\t\t
maintenance_work_mem = 1500MB
bgwriter_delay = 100ms\t\t\t
bgwriter_lru_maxpages = 1000\t\t
bgwriter_lru_multiplier = 4.0
max_worker_processes = 24\t\t
max_parallel_workers_per_gather = 12
wal_level = minimal\t\t\t
fsync = off\t\t\t\t
synchronous_commit = off\t\t
wal_sync_method = fsync\t
wal_buffers = 16MB
checkpoint_timeout = 60min\t\t
max_wal_size = 4GB
min_wal_size = 2GB
checkpoint_completion_target = 0.9
archive_mode = off
enable_mergejoin = off
enable_nestloop = off
random_page_cost = 1.1
effective_io_concurrency = 200
effective_cache_size = 18GB
default_statistics_target = 100
join_collapse_limit = 1\t
autovacuum = on\t\t\t
autovacuum_max_workers = 20\t\t\t\t\t\t
autovacuum_naptime = 20s\t\t
autovacuum_vacuum_scale_factor = 0.005
autovacuum_analyze_scale_factor = 0.02
escape_string_warning = off
standard_conforming_strings = off
Есть кто много работает с PostgreSQL и 1С? сейчас переводим файловую базу на эту СУБД и вроде норм работает, но вот в номенклатуре ставишь цены и начинает по 3 секунды думать, а в файловом варианте все мгновенно считает
Тест Гилева показывает 32 балла
Почему притормаживает не можем понять
1С-ник говорит, что доработки не нужны при переходе с файловой на СУБД, а я думаю, что при переходе оптимизация в любом случае нужна, также мы используем SSD и конфиг PG вроде на максимум выкручен
Может быть надо еще быстрее диски? PCI-E например под запись в 1000МБ и чтение в 1500МБ?
СУБД пробуем и на винде и на линуксе - на линуксе 32 балла в Гилевском, на винде 22 балла
Может есть какие-то версии PG, линукса и 1С, которые совместно работают отлично?
Пробовал PG 9.2, 9.6, 11.1 на CentOS6, UbuntuServer14.04 и PG 9.6, 10.5 на Win2013R2
1С 8.3 КА
брал готовые сборки 9.2, 9.6 для линукса с сайта официального сайта 1С и PostgrePro там тоже для 1С сборки
для винды 9.6 и 10.5 с официального сайта 1С
то есть пробовал разные миксы для 1С, кроме 11.1 она сама по себе просто самая последняя. Может есть какие-то отличные проверенные версии? 1С 8.3.13.1690, база 25Гб, хотя сейчас на файловой работают на старой версии 8.3.6
сервер с 24 ЦПУ, 25Г ОЗУ, ССД с 200МБ запись\400МБ чтение для баз и системы
а конфиг большой
основные параметры для_винды:
users=100
ssl=off
shared_buffers = 2GB
temp_buffers = 16MB\t
work_mem = 16MB\t\t
maintenance_work_mem = 256MB
bgwriter_delay = 100ms\t\t\t
bgwriter_lru_maxpages = 1000\t\t
bgwriter_lru_multiplier = 4.0
max_worker_processes = 24\t\t
max_parallel_workers_per_gather = 12
wal_level = minimal\t\t\t
fsync = off\t\t\t\t
synchronous_commit = off\t\t
wal_sync_method = fsync\t
wal_buffers = 16MB
checkpoint_timeout = 60min\t\t
max_wal_size = 3GB
min_wal_size = 1GB
checkpoint_completion_target = 0.8
archive_mode = off
enable_mergejoin = off
enable_nestloop = off
random_page_cost = 1.1
effective_cache_size = 18GB
default_statistics_target = 500
join_collapse_limit = 1\t
autovacuum = on\t\t\t
autovacuum_max_workers = 20\t\t\t\t\t\t
autovacuum_naptime = 20s\t\t
autovacuum_vacuum_scale_factor = 0.005
autovacuum_analyze_scale_factor = 0.02
escape_string_warning = off
standard_conforming_strings = off
для_линукса:
users=100
ssl=off
shared_buffers = 5GB
temp_buffers = 16MB\t
work_mem = 16MB\t\t
maintenance_work_mem = 1500MB
bgwriter_delay = 100ms\t\t\t
bgwriter_lru_maxpages = 1000\t\t
bgwriter_lru_multiplier = 4.0
max_worker_processes = 24\t\t
max_parallel_workers_per_gather = 12
wal_level = minimal\t\t\t
fsync = off\t\t\t\t
synchronous_commit = off\t\t
wal_sync_method = fsync\t
wal_buffers = 16MB
checkpoint_timeout = 60min\t\t
max_wal_size = 4GB
min_wal_size = 2GB
checkpoint_completion_target = 0.9
archive_mode = off
enable_mergejoin = off
enable_nestloop = off
random_page_cost = 1.1
effective_io_concurrency = 200
effective_cache_size = 18GB
default_statistics_target = 100
join_collapse_limit = 1\t
autovacuum = on\t\t\t
autovacuum_max_workers = 20\t\t\t\t\t\t
autovacuum_naptime = 20s\t\t
autovacuum_vacuum_scale_factor = 0.005
autovacuum_analyze_scale_factor = 0.02
escape_string_warning = off
standard_conforming_strings = off
На компьютере была установлена pSQL 9й версии, позже накатывал 10ю.
И всё вроде хорошо, веду базы данных на 9ке и 10ке отдельно, всё как у людей.
Однако 9ка вроде как и не нужна уже, все проекты на ней давно сданы и едва ли кого интересуют.
И вот залез я как-то в службы шиндоуза и обнаружил что у меня там оба pSQL-сервера вписаны на автозапуск.
Я подумал что 9ка больше не нужна в общем-то и отключил.
И вот обнаружилось что вместе с тем pgAdmin с консолью перестали видеть те самые базы данных и даже логины проебались. Однако при этом компьютер также видит что у меня тут джва сервера установлено.
Подрубил обратно службу с процессом 9й версии - всё вернулось.
Кто-нибудь может хотя бы примерно объяснить за счёт чего оно может происходить? Самое что непонятное - почему 10й сервер оказывается привязанным к 9ке, но при этом спокойно пользует свои специфические фичи.
Раскошеливайтесь вот на эту залупу, хуле:
https://www.supermicro.com/products/system/2U/2029/SYS-2029UZ-TN20R25M.cfm
>почему не удалить 9 совсем?
Тоже думал, но иногда таки попадаются случаи когда заказчику нужна именно 9я версия.
Опять же, теперь есть повод беспокоиться что со сносом 9ки у меня могут и данные проебаться.
>порты поменять надо попробовать в конфиге ПГ
Да вроде с этим проблем нет же.
На мой взгляд аномальным является то что 10й сервер каким-то образом работает из-под исполняющего файла 9ки и де факто в 9ке же и находится.
Мне для диплома нужно подобрать оптимальный.
Ну так и составь интегральный критерий.
Если с СУБД и структурой данных всё ясно, то сервер упирается в:
- проц
- ОЗУ
- HDD\SSD
- ширина канала
- ожидаемый пинг для клиента
- возможности защиты от дудосов, внезапных падений железа, и прочего
По всему этому выводишь минимумы-оптимумы-максимумы и сравниваешь с какими-нибудь рыночными планами.
Итоговый выбор предлагаешь делать по наиболее узкому участку. К примеру, дисковое пространство всегда можно расширить.
>По всему этому выводишь минимумы-оптимумы-максимумы
Вот тут проблема, я не знаю, как это вывести. Что можно почитать?
Ебусь весь вечер без результата.
Ставлю на win 10 оракл базу, чтобы на ней учиться.
Скачал с сайта oracle sql developer Windows 64-bit with JDK 8 Included
Скачал OracleXE184_Win64.zip
Установил базу с админ правами.
Запускаю sql developer и жму, как во всех гайдах, new connection. Заполняю все как в гайдах, ввожу свой пароль, что указал при регистрации.
Вылазит эта херня:
Status : Failure -Test failed: Ошибка ввода/вывода: The Network Adapter could not establish the connection
Что я не так делаю? Как лечить? Почему даже поставить не выходит блять? Ебусь весь вечер без какого либо результата. Качал обычную базу, но она сука даже не устанавилась, писала про failed to set acl's for specified user oracle, поэтому и ставил XE версию.
Как мне поставить этот гребанный sql с табличками к себе на комп?
юзай SQLite
Как ты ставил сервер? Листенер настроил?
А ещё можешь забить на sql developer, поставь себе ещё клиент оракла и подключайся через pl/sql developer.
никто
Как написать на Perl'e, чтобы инфу в базе данных можно было менять прямо через сайт, который прицеплен к самой этой базе данных?
Извиняюсь за некорректную формулировку мэйби
Кидаем ресурсы\книги\ютуб.
Изучить азы на практике http://www.sql-ex.ru/index.php?Lang=0
Cодержащая много хорошего https://www.w3schools.com/sql/
гайд как гуглить:
если не знаешь инглиша, то пиши сюда по-русски, что хочешь\требуется сделать
https://translate.google.ru/
копируй результат и вбивай в гугол
А кто тут вообще сидит? Аналитики?
>>312894 (OP)
Сколько вы зарабатываете?
Кем работаете?
Я сейчас занимаюсь поддержкой и доработкой одной ИС на pl/sql и созданием всяких отчётов в BI.
Получаю 70к, но я еще совсем студент 4 курса, поэтому мне норм, естественно ДС.
Хочу перекатиться в разрабы БД Oracle. Пару раз ходил на собесы, выделил для себя направления которые еще надо подтянуть.
1) redo undo пространства
2) принципы построения хранилищ (dv, 3nf)
3) AWR
4) xml в оракле
5) skip partition
6) in out nocopy - повторить
7) гистограмма статистики (зачем собирать)
8) dwh vs olap
9) параллелизм в oracle
10) индексы составные (критерий порядка)
11) раздел temp
12) HASH JOIN, MERGE JOIN, NESTED LOOPS как ведут себя с индексами
13) Блокировки: как пользоваться где смотреть
14) Области памяти в Oracle
Что стоит знать еще? Чтобы вы добавили?
Ты в курсе, что ты и так разработчик oracle?
Только аналитической системы.
Для разработки OLTP тебе нужно все это + стандартные требования для программиста, а-ля алгоритмы и структуры данных.
Так получилось, что я "разработчик" в отделе, который разработкой не занимается. Все приколюхи которые я тут пишу, они для внутренних нужд или для смежных отделов.
>Для разработки OLTP
В OLTP как раз и хочу вкатиться.
Брат, это хранилище, как ты хотел.
Вся разработка - возьми и по кальке добавь заполнение новой таблицы, отличаются только названия и селекты.
И это тоже считается разработкой.
Дело в том, что здесь ты должен уметь быстро оперировать огромными наборами данных, понимать, как работает оракл и быть супервнимательным, так как однообразность притупляет эту самую внимательность.
И это тоже ценится, бизнес хочет хранить много данных и быстро доставать что-то конкретное, не каждый может сегодня в завтрашний день.
А так просто покажи на собеседовании, что у тебя есть фантазия и ты умеешь придумывать быстро элегантные решения для нового функционала - вот тебе и то, что нужно для OLTP.
Плюс умение разбираться в чужом коде, это тоже важный момент - чтобы понять существующий движок быстро.
Что меня может там ожидать?
Нужно будет процедуры/функции/триггеры на бумаге писать?
Оптимизация/параллельность/партиции/хинты/ мат. представления в оракле, что еще может быть, кроме того, что тут >>370893
написано?
Разработчик хранилища - как и ты.
>>370965
Оптимизация, хинты, аналитические функции, коллекции, курсоры, параллельный доступ(сюда можно ещё принципы acid отнести), понимание того, что ты работаешь не с ежедневными выгрузками, а в системе "реального времени" - не в смысле как в самолёте, а что постоянно бегают транзакции и нужно учитывать нагрузки, которые будет испытывать твоя разработка.
Главное отличие - помимо точности обработки тебе ещё нужна эффективность. В хранилище это тоже требуется, но там разница в 5 секунд не сыграет роли - вся процедура бегает 5 минут, а следующий набор данных придет только завтра ночью - в транзакционной же системе тебе нужно сделать все быстро, так как во время обработки могут прийти новые данные, и чем меньше их будет - тем быстрее ты их обработаешь и не замедлишь работу системы.
Сайт для учета базы клиентов c Блэкджеком
Цена до: 1 000 Р
Активный
Авторизация на сайте, пользователи и админ.
1 создал карточку клиента, поля с данными: телефон , название итд,
И главное борьба С дублями
2 карточка с событиями, привязанная к карточке клиента (позвонил , пообщались, оставил заказ), создаются новые, старые остаются, можно проследить ход событий.
3 сортировка по полям данным
4 маркеры пользователя на карточке клиента,чтобы было видно, какой пользователь ведет клиента
это предварительно
Есть WAMP 2.5.
Есть Mysql база в интернете, которую я хочу скопировать на локальный сервер. Зберёг усю базу в большой файл SQL. Но при импорте на локальный сервер одна таблицы на сотни тысяч строк не загружается вообще, а в логе появляются сообщения MySQL Server gone away 2006.
Почитал про
set global max_allowed_packet=64000000;
set global net_buffer_length=1000000;
set global innodb_lock_wait_timeout=500;
Но когда я задаю их в консоли (WAMP-Mysql console), они не сохраняются.
mysql> set global max_allowed_packet=64000000;
Query OK, 0 rows affected (0.00 sec)
mysql> show variables like "%max_allowed_packet%";
+--------------------------+------------+
| Variable_name | Value |
+--------------------------+------------+
| max_allowed_packet | 4194304 |
| slave_max_allowed_packet | 1073741824 |
+--------------------------+------------+
2 rows in set (0.00 sec)
Прописал также в my.ini
max_allowed_packet = 64000000
перезапустил все сервисы и отдельно mysqld restart
но нифига, по-прежнему max_allowed_packet=4194304
Працует тильки вставка set global ... непосредственно в початку загружаемого файла SQL с моей базой с большой таблицей.
Чому так ? Чому Mysql не воспринимает прописанное в my.ini ?
Где потрибно прописывать переменные ?
Есть WAMP 2.5.
Есть Mysql база в интернете, которую я хочу скопировать на локальный сервер. Зберёг усю базу в большой файл SQL. Но при импорте на локальный сервер одна таблицы на сотни тысяч строк не загружается вообще, а в логе появляются сообщения MySQL Server gone away 2006.
Почитал про
set global max_allowed_packet=64000000;
set global net_buffer_length=1000000;
set global innodb_lock_wait_timeout=500;
Но когда я задаю их в консоли (WAMP-Mysql console), они не сохраняются.
mysql> set global max_allowed_packet=64000000;
Query OK, 0 rows affected (0.00 sec)
mysql> show variables like "%max_allowed_packet%";
+--------------------------+------------+
| Variable_name | Value |
+--------------------------+------------+
| max_allowed_packet | 4194304 |
| slave_max_allowed_packet | 1073741824 |
+--------------------------+------------+
2 rows in set (0.00 sec)
Прописал также в my.ini
max_allowed_packet = 64000000
перезапустил все сервисы и отдельно mysqld restart
но нифига, по-прежнему max_allowed_packet=4194304
Працует тильки вставка set global ... непосредственно в початку загружаемого файла SQL с моей базой с большой таблицей.
Чому так ? Чому Mysql не воспринимает прописанное в my.ini ?
Где потрибно прописывать переменные ?
меня на первую работу спрашивали селект звездочка, сказали остальному научат. на 30к мухосрань-200к
В чем рисовать няшные схемы?
Бля, конечно, одну общую с атрибутом user type id. Что тут спрашивать, вообще. Как ты будешь запросы писать ко всем пользователям? Юнион олл свои миллиард таблиц?
>В OLTP как раз и хочу вкатиться.
нахуй олтп. Ораклиный олтп в отсосе сейчас. Все пытаются делать в орм. В плане бд разработчика хранилище это еще та тема, где можно рулить. К тому же оракул в хоронилищах отсасывает последние десять лет специализированным бд (терадата, гринплам) и носкль говну типа хадупа.
Вообще в Данных сейчас самая нормальная тема, это data engineer на опен сурс стеке hadoop, presto, kafka и тп говно. Это сейчас востребованная тема и больше платят. У оракула всё наоброт. Надо в неё вкатываться.
Или если модолой пиздюк может не поздно перекатиться в general purpose языки типа джавы. Разработчик оракл в 2019 это как то это. Если на текущем раб месте надо, учи конечно, но подумай. Работаю в хоронилищах 10 лет.
Удивительно, что во всём pr по запросу hadoop находятся три поста. В БД обсуждают какое-то аутдейтед говно из девяностых.
ЗАДАНИЕ: Найти среднюю скорость компьютеров от производителя "А"
МОЁ РЕШЕНИЕ (Неправильное):
SELECT AVG(PC.speed)
FROM PC, Product
WHERE Product.maker = 'A'
1) Научись соединять таблицы.
2) Забудь эти ебучие джойны через запятую и пользуйся нормальными ансишными.
ну так как
join b on 1 = 1
это то же самое, что
cross join b
то скажу да. а так - джоин - это поиск пересечения множеств, а select from a, b - это декартово произведение
а еще оптимизаторы запросов написаны людьми умнее, чем написатели подобных запросов, и они могут в переделку на джоин
А ничего, что cross join - то же самое, что две таблицы через запятую?
Ничего, что ты при соединении таблиц через запятую можешь указывать условия соединения?
Нет, это разные вещи, конечно же. И оптимизатор переделывает запятую в джойн не потому что видит ее как джойн, а потому что это запятая, а оптимизатор написан очень умными людьми. Такими умными как ты, наверное.
Прошу прощения за сумбур, вдруг кто поймёт суть
Есть такой селект:
select shit from anus
into wc
where available = true and want_srat' = true.
if wc == space
{
select shit from anus
into wc
where available = true.
}
Как это записать в одном селекте без необходимости переписывать весь запрос с одним измененным условием?
т.е. грубо говоря надо выставить приоритет для want_srat', но если нет,то извлекать все подряд
select nvl(decode(want_srat, true, shit), shit)
from anus
where available = true
А смысл вообще запроса можешь объяснить?
Тебе нужно выбрать значение из строк, где оба параметра - истина, но если такого нет, то выбрать такие, где только один параметр - истина?
Ну а вообще даже так
select id, max(nvl(decode(...))) from
//
group by id
Чтобы для каждой записи взять только одну запись.
Придумай только, как сделать у записи с обоими флагами так, чтобы ее отобрал max(или любая другая агрегатная функция).
Какие есть хорошие ресурсы (сайты, книги, видео, шо угодно) для освоения SQL? В ВУЗе было в своё время и сдавал всё на отлично, но там как-то слабоватый совсем уровень был: базовые джойны, агрегатные функции и прочее барахло. После тех времён заглянул в нынешние PostgreSQL и Redshift, а там вообще другой сказочный мир из оконных функций, массивов каких-то дивных и прочих приблуд. В целом по гуглу и документации всё понятно, когда сталкиваешься, но сталкиваться задачи нужны какие-то.
Неужто все по хардкору документацию сплошняком читают и в фиддле сами себе примеры для отработки сочиняют?
professorweb глянь, но там упор на MSSQL, может и не подойти
Mysql, есть таблица справочник вида
id name
1хуй
2пизда
3джигурда
4залупа
5жопа
И динамическая таблица вида
n naims
QWER9090 1,3,5
JOPA1337 2,4
GOVN2281 1,5
Нужно заселектить так чтобы в naims вместе цифр по id из справочника выдавало список naim типа:
n naims
QWER9090 хуй,джигурда,жопа
select dyn.n, group_concat(spr.name) as names from dyn
left join spr on spr.id in (dyn.names) выдает только одно значение из справочника. find in set в каждую строку полностью весь справочник запихивает.
Что я делаю не так?
>QWER9090 1,3,5
>1,3,5
Это id из таблицы "справочник"? Так и записаны через запятую в поле "динамической" таблицы? Схема мудацкая в таком случае.
По-хорошему должно быть так в динамической таблице:
QWER9090 1
QWER9090 3
QWER9090 5
...
Тогда можно было бы обойтись без вот этих плясок :
SELECT t.name, group_concat(spr.name) names FROM spr spr JOIN (
SELECT
SUBSTRING_INDEX(SUBSTRING_INDEX(dyn.ids, ',', spr.id), ',', -1) id,
dyn.name
FROM spr JOIN dyn
ON CHAR_LENGTH(dyn.ids)
- CHAR_LENGTH(REPLACE(dyn.ids, ',', '')) >= spr.id - 1
) t ON spr.id = t.id
GROUP BY t.name
простым джойном и группировкой.
Как думать в SQL и писать эффективные запросы?
1. Нужно сделать, условно, 2 джоина.
Есть вариант предварительно отфильтровать одну таблицу (запихнуть результат в CTE) и уже сделать джоин первой таблицы с CTE.
Либо же сразу писать джоин в одном месте и там по ходу фильтровать
2. Есть к примеру 4 таблицы: A,B,C,D.
Отфильтровал как-то A, нужно сджоинить оставшиеся три.
Забрать нужно не все данные, а только часть. offset и fetch next можно сделать на таблицу А, а потом на результат сделать джоин оставшихся таблиц.
Либо же сразу на А делать джоины и в конце делать offset и fetch next.
1. понял, спасибо
2. Вопрос немного не в этом. Меня offset и fetch next вполне устраивают.
Либо я не правильно ответ понял, либо вопрос не так поставил.
Вопрос примерно такой же как и первый: делать ли джоины до пагинации, либо после нее.
Я сейчас делаю так: беру таблицу А, делаю по ней пагинацию, джойню остальную инфу, типо зачем делать джоины на строки, которые потом не попадут в результат. Но возможно оптимизатор и это способен понять и можно сразу писать джоины и в конце делать пагинацию.
Я к тому, что ты можешь изначально первую таблицу обрезать так, чтобы не было ничего лишнего.
Т.е. если в первом вопросе оптимизатор сам решит, как лучше соединять, то в этой ситуации, если ты явно скажешь, что хочешь обрезать выборку из таблицы А, он никуда не денется - выберет из нее нужные данные и будет соединять их. Смотри план, опять же.
Плюс тут ещё нужно учитывать затраты: зафетчить строку из А, пустить для нее запрос и так для какого-то количества строк - это ж сколько раз ты будешь читать остальные таблицы?
То есть нужно оценить, что выгоднее - пустить для десятка строк один и тот же запрос десять раз или все же за один запрос все соединить.
Почему я сказал по rownum.
Пускай у тебя есть селект с каким-то условием из подзапроса. И в общем случае это условие можно запихнуть в подзарос - смысл не поменяется. Да и сам оптимизатор это, скорее всего, сделает за тебя.
Но если в оракле поставить условие на rownum - виртуальный столбец - смысл от него будет совершенно разный в подзапросе и в селекте над ним.
То есть ты можешь с помощью его аналога в своем БД обрезать выборку каким-то хитрым образом и не джойнить ничего лишнего.
А, может, это я тупой и не понял тебя.
разраб как DBA востребован не во многих компаниях, с большой вероятностью в аутсорсе онли. ну, и чем больше охват базочек, тем ты лучше. популярный реляционный набор энтерпрайза плюс хоть какое-то представление о NoSQL, или самодостаточные знания в оракле - это все дба, которых я встречал
>сорсе онли. ну, и чем больше охват базочек, тем ты лучше. популярный реляционный набор энтерпрайза плюс хоть какое-то представление о NoSQL, или самодостаточные знания в оракле - это все дба, которых я встречал
А разве ORM всех не подебил?
Схема мудацкая, согласен. Но менять никто не даст и приходится работать с тем что есть.
а что ORM? его присутствие в коде проекта не означает, что база сама себя заадминит. плюс, орм орм-у рознь: если какой-нибудь EntityFramework разве что ускорить время выхода приложения в live сможет (и рано или поздно от него придется отказаться), то Dapper или нечто вроде просто тебе дает возможность скастить результат в нужный тип без явного приведения полей (писать SQL тебе нужно ровно так же, если бы юзались хранимые процедуры, только в другом месте)
затем, что это все персоманс-кост на разбор выражения и приведение его в SQL, а также ультранеоптимальный (в большинстве случаев) запрос. не знаю насчет NHiber, но EF не поддерживает практически никаких хинтов и оконных функций (вагную, если бы первые умели, вторые моментально выкатили свой вариант), про MERGE/PIVOT/WITH я даже не заикаюсь. поэтому для 10RPS CRUD-запросов к таблицам с джойнами ORM тебе будет хватать с избытком, даже если ты всю базу при каждом запросе будешь в память грузить. но анатилику ты никакую на ORM не построишь, а с ростом интенсивности взаимодействия с базочкой тебе придется искать выход. и очень сильно повезет, если бекенд не окажется гвоздями прибит к [конкретной] ORM
>а с ростом интенсивности взаимодействия с базочкой тебе придется искать выход. и очень сильно повезет, если бекенд не окажется гвоздями прибит к [конкретной] ORM
Но зачем его искать?
https://www.supermicro.com/products/system/2U/2028/SSG-2028R-NR48N.cfm
>CONFIGURED PRICE: $17,654.00
или сказать кастомеру, что если тебя уволить, можно сэкономить без малого 20к
>>CONFIGURED PRICE: $17,654.00
>или сказать кастомеру, что если тебя уволить, можно сэкономить без малого 20к
Нет, потому что байтоебу-запроснику придется протратить несколько лет времени вместо нескольких месяцев, после чегг и получить неподдерживаемый говнокод на голом JDBC, который поддерживать раз за разом встанет дороже.
И все это вместе, разумеется, будет дороже (по зарплате, по простоям, по сопровождению) и 17к, которое стоит это шасси, и 80к, которое уже напихано топовыми восьмитерабайтными NVMe SSD.
наличие или отсутствие ORM, хранимопроцедурного говнослоя и прочих вещей не дает никому никаких гарантий. наскакивать на ORM очень легко, а соскакивать тяжелее, особенно, если это YOBA-фреймворки. кому-то, может, и не приется соскакивать никогда, кто-то просто добавит стейтфул инстансов в Service Fabric/Kubernetes и будет счастлив
эластика какого-нибудь
если ты умудришься завернуть подобную логику в процедуру, это будет ебала с регулярками, циклами и подобной тяжеловесной залупой. ну по эффективности выйдет не хуже, чем миллиард запросов
Еба...это ради такой хуйни VPS с явапарашей поднимать. Еба. А каких-то промежуточных вариантов между LIKE `строка` и LIKE `%строка%` нет вовсе? Без шуток про LIKE `%строка` и LIKE `строка%` плз.
Аноны, подскажите какой-то литературы в которой очень сжато будет рассказано самое важное, чтобы я за дня 3 упорного чтения управился могу читать примерно 200 страниц в день, потом плохо воспринимаю и работу с SQL. Возникла необходимость прикрутить небольшую БД и залить ее на сервер, в языке средства для работы с СУБД есть, но в голове нет нихуя по этой теме
ну не поднимай
тебе нужен поиск схожести, а ты пытаешься лобовой полнотекстовый поиск заюзать. ну, попробуй с лайками напиши, расскажешь, что получилось
Есть же soundex() например.
Не смешно, блять.
Если хочешь на Sql такое написать, можно заюзать динамик скл: собирай запрос по такой логике:
1. На вход прилетает строка и число N, например, "кака", N=3
2. Далее нужно использовать логику для подбора бинома Ньютона(гугли): выбор M из N, иными словами, обойти все варианты, подставляя вместо них "_" в свое like выражение,для нашего примера это будут:
where word like '_ака'
or word like 'к_ка'
or word like 'ка_а'
or word like 'как_'
or word like '__ка'
or word like '_а_а'
or word like '_ак_'
or word like 'к__а'
or word like 'к_к_'
or word like 'ка__'
or word like '___а'
or word like '_а__'
or word like '__к_'
or word like 'к___'
Соотвтветственно, тебе нужно написать алгоритм, который будет такой sql собирать динамически, собственно, придется разбирать слово по буквам и использовать все возможные перестановки.
Честно говоря, кажется, поиск будет работать медленно...
Есть еще хранилища данных, BI, где зачастую не используются никакие языки, кроме SQL, потому что не нужны. Но, как показывает практика, разработчики приложений про такие слова слышали разве что мельком.
Помимо всего прочего, просто интересно, как будет выглядеть написанный, например, на
>JPA/Hibernate
вот такой запрос
>update t_data set update_date = cast('20190101' as date) where is_valuable = 1
, имея в виду, что все необходимые классы у тебя уже имеются.
ОРМ - это удобно, никто и не спорит, но некоторые вещи он сейчас решает топорно, помимо всего прочего любопытно узнать, что ты будешь делать, не зная SQL и, соответственно, не умея читать план запроса, если твое выражение, написанное при помощи ОРМ вдруг начнет выполняться медленно. Такие вещи, как профилирование запросов, для тебя оказывваются тайной за семью замками, значит, в более-менее крупных проектах, где данных чуть боьше, чем 100000 строчек, ты не работал.
есть большие банки данных (базочки), которыми надо управлять (дядя-начальник = СУБД)
•Опыт работы системным администратором не менее 3-х лет.
•Уверенные знания всей линейки ОС Windows, базовые знания Linux.
•Опыт администрирования активного сетевого оборудования, опыт построения VPN сетей 2/3 уровня.
•Опыт администрирования телефонных станций линейки PANASONIC, базовые знания работы ASTERISK и SIP телефонии.
•Опыт администрирования систем IP видеонаблюдения, в том числе Облачных.
•Опыт администрирования виртуальных машин на базе VMWare и HYPER-V.
•Опыт администрирование серверов 1С в том числе мониторинг производительности, схемы резервного копирования.
•Уверенные знания СУБД MS SQL\Postgres\Firebird и языка запросов SQL.
•Опыт применения в работе стандарты ITIL\SLA.
•Опыт работы с кассовым оборудование, POS системами.
•Базовые знания WEB технологий и серверов IIS\Apache.
•Базовые знания технологий защиты информации.
угадайте сколько предлагают)
Ну и пусть нахуй идут, ясно же, как белый день.
Если есть мозги, то в ДС с такими знаниями изи 200к в месяц можно иметь.
Скоро в региаоных одни дауны останутся, а те, кто с головой на плечах, уедуд в дс/дс2/в другие страны на нормальные бабки.
с удовольствием бы жил не в мегаполисе, если не уровень з/п
но уезжать ради денег тоже такое себе
слава пыне! - пыне слава!
>2k20
>sql
Да что там далеко ходить - в этом итт треде один клоун реально заявляет о то что имплицитный джойн это слишком и кабы чего не вышло.
Ну я рад за тебя, осталось только подтянуть state of the art свитероиндустрии хотя бы до уровня пятидесятилетней давности или когда там Дейкстра и ко поясняли за пользу структурированного подхода.
Алсо, что будешь делать когда глав-свитеро-петух скажет что так никуда не годиться потому что БУДЕТ МЕДЛЕННА и вообще пиши как все ПО ПРОСТОМУ а то КАБЫ ЧЕГО НЕ ВЫШЛО.
>Primary key - это уникальный кластерный индекс, если што
Ответьте нубу, значит ли это, что первичный ключ должен быть сортирован?
Советую давать всем таблицам алиасы и использовать их везде в запросе. Иначе непонятно, что это за поле такое - title, из какой оно таблицы?
>>377876
Наоборот, первичный ключ в таблице - это всегда кластерный индекс, причем уникальный.
А кластерный индекс предполагает сортировку, да, по тем полям, по которым он создан.
Скопировать подзапрос и повесить сверху агрегат - бесценно.
Написать max(count(title)) - для этого нужен мозг.
А для count(title) > 2 - нужно быть сверхразумом.
Но чтобы вонять без умения писать запросы мозг не нужен.
Как же хорошо, что есть оптимизатор для таких дурачков как ты.
> свитера просто не понимают что это и зачем нужно
> бессвязный поток дриста не имеющий никакого отношения к поднятому вопросу
Ну да, все сходится.
> Любого нормального кодера за такой копипаст ткнули бы носом в говнокод.
Да нет, просто ты тупой, тебя в твое говно ткнули.
Угу, так же добавлю что это было бы еще пол-беды. Проблема в том что такие "примеры" очень даже встречаются irl, но только на сотни строк и каждая строка повторяется по десять раз минимум, как будто читаешь текст песни леди Гаги.
Помогите определиться плес. Премного благодарен.
Моя тян я знаю уже смешно, да желает вкатиться в ойти попроще. В настоящий момент пытаюсь определить, что ей лучше зайдёт по лёгкости вката и условной востребованности на рынке:
1. что-то связанное с базами данных
2. QA с автотестами
Что скажет умный анон по этому поводу? Если она выучится в каледже на базы данных vs сделает тоже самое по QA, какие перспективы быстрого вката в профу?
go, js~ и питонопитушня
проще некуда. ну, для го нужно чуть больше мозга, чем для фронтача. однако технология относительно новая, дохулиарда, готовых кодить за еду, не видно
Я понял слова, но не понял смысла.
Ты ратуешь за то, чтобы она вкатывалась в программерство, забив на базы данных и QA? Или ты имеешь в виду, чтобы она вкатывалась на QA с го, жс и питоном?
И куда ей легче будет вкатиться джуном, чтобы наверняка? Как быстро вкатится после календжа с курсами в год (два семестра)?
я тебе про ойти попроще говорю, а не QA с питоном
ибо дба не самый легкий и не самый востребованный спец
>Если кластеризованный индекс в таблице еще не создан, а уникальный некластеризованный индекс еще не указан, то при создании ограничения PRIMARY KEY в одном или нескольких столбцах автоматически создается уникальный кластеризованный индекс. В первичном ключевом столбце недопустимы значения NULL.
https://docs.microsoft.com/ru-RU/sql/relational-databases/indexes/create-clustered-indexes?view=sql-server-2017
Пруф ми вронг
>первичный ключ в таблице - это всегда
>если кластеризованный индекс в таблице еще не создан
сначала ты утверждаешь инвариант
потом приводишь дефолтное поведение
Интересено посмотреть, как ты оперируешь PK, когда он не является кластерным индексом.
Можешь какой-нибудь пример привести с объяснениями, зачем так делать?
а что если сторонней программой? например фрифайлсинх - зеркало пространства делать и все м?
Нужно чтобы синхронизация выполнялось программно, внутри приложения.
я никак не оперирую, я сторонник того, чтобы естественный ключ был равен первичному
когда-то приходила в голову мысль, где это может быть применимо, но, видимо, было не сильно убедительно даже для самого себя, чтобы подобное запоминать. в общем, если нужно построить скалярный FK на таблицу, у которой составной первичный ключ. и вообще, если дают возможность так делать, значит это кому-нибудь нужно.
Есть БД, фрагмент ее быстро накалякал в draw.io, чтобы суть пояснить. Но на скрине SQL-вариант.
Как оптимальней подобное перенести в mongodb? Насколько я понимаю, у школ будет массив objectId предметов, учителей и уроков, а соответствующие вторичные ключи на школы в этих трех таблицах будут удалены? В остальном то же самое?
Если учесть что бизнес-логика подразумевает постоянные запросы "Преподает ли учитель в данной школе", "В какой школе преподает учитель", "Какие уроки провел данный учитель" итд, короче джойны во все стороны со всех таблиц будут использоваться.
ты хочешь в нереляционное хранилище напердолить реляционную модель?
храни сразу граф объектов в одном документе. условно: школа { инфа, учителя: [{ инфа, предметы: [{ инфа }] }] }. возможно, придется дублировать данные в документах
Курс, или книгу, или какие-то статьи. Покупать я разумеется ничего не буду
CREATE TRIGGER
селекти каждые две
Когда уже дойдёшь до такого уровня, что начнёшь смотреть план выполнения запросов - тебе может потребоваться какая-нибудь N'ная нормальная форма.
А пока, раз у тебя, грубо говоря, 10 тысяч строк в таблицах, на твоём уровне достаточно было бы оставить правило "не увеличивай число столбиков без крайней на то необходимости" - вот тебе и подходящая нормальная форма.
Алсо, было же у Андрея Орлова правило "не храни артикул товара в виде 12-значной строки, а храни его в виде целочисленного ключа" - вот тебе и подходящая нормальная форма.
Или старое правило "не храни номера телефонов ни с кодом города ни тем более через точку с запятой" - вот тебе и подходящая нормальная форма.
Как мог, объяснил.
конечно не имеет отношения никакого. это ж учебники по базочкам. нахуя там что-то писать полезное?
>Как мог, объяснил.
А объясни пожалуйста джуну, как нормальные формы влияют на план запроса?
прямо никак. но от дизайна базы уровня /b/ можно посадить перфоманс таже двуколоночной таблицы. думаю, он это имел ввиду
Сам я когда-то запомнил совет читать учебник по ссылке ( http://www.sql.ru/docs/sql/u_sql/ ), но к восьмой главе у меня уже на полном серьёзе от качества перевода начинает болеть голова и создаётся впечатление, что меня поразил инсульт, по причине чего у меня пропала способность воспринимать текст.
Попутно я решаю задачи на http://www.sql-ex.ru , изредка пользуясь справкой, но по беглому её просмотру я посчитал, что она - прямое руководство по использованию языка, без каких-то теоретических сведений.
Может есть какие-то более приемлемые альтернативы?
Какие именно области применения SQL ты пытаешься разобрать с помощью учебника? Сформулируй вопросы.
Ну, судя по тому, что вопросы мне в голову не приходят, то просить нужно что-то обобщённое, что позволило бы сформировать представление о языке?
Мне он нужен в дополнение к Java, то есть в сущности, насколько я понимаю, мне только и придётся, что писать запросы. Но хотелось бы охватить хотя бы поверхностно общие положения реляционных баз данных и всё такое.
Пока ты не поймёшь, что именно тебе нужно, и не сформулируешь вопросы, нет смысла заниматься разбором ответов. Что-то обобщённое в википедии написано.
Помогите с литературой. Нужна книга объем не важен где рассказывается о базах данных в целом, для получения общей базы нихуя каламбур, а потом более подробно рассматриваются распределённые БД. Если такая литература существует конечно
>Помогите с литературой. Нужна книга объем не важен где рассказывается о базах данных в целом, для получения общей базы нихуя каламбур, а потом более подробно рассматриваются распределённые БД. Если такая литература существует конечно
http://tc.kpi.ua/content/lib/vvedenie_v_sistemy_baz_dannyh_8izdanie.pdf
благодарю
С хранилищами понятно. Там Apache Spark и прочая хуйня.
Но ведь тот же OLTP живет на MS SQL/Oracle/PostgreSQL разве нет в Ынтерпрайзе? мы сейчас не про залупные конторы из трех человек которые сайты на mysql пердолят.
Сменил три банка: обычно кроме MS SQL/Oracle ничего не видел.
реляционная теория не поменялась с 70х годов, дурачек
каких "современных" основ о БД ты хотел?
мамку ебал
вопрос был об основах, ты всегда матешу с интегрирования изучать начинаешь?
Да, а что?
>гомологической алгебры
Уноси своё старьё обратно, быдло.
Я начал с изучения вычислимых нумерованных множеств и построения функторов с преобразованием в категорию конструктивных моделей с обязательным семейством фридберговых вычислимых нумераций. Кстати, наиболее рациональный способ для получения конструктивной модели с фиксированной авторазмерностью.
И не прогадал.
Кто-нибудь может пояснить за надежность хранения данных в текстовом документе (txt)?
Вот записано у меня там данных на 1кк байт, какова вероятность что информация будет считана ровно на этот 1кк байт без потерь? Или это зависит от старости моего жесткого диска? Возможны ли ошибки и как их устранять, есть что почитать (статьи/книги/видосы)?
>надежность хранения данных
Определяется исключительно надёжностью хранения данных как таковых, формат не имеет значения. Если ты пишешь логи, то храни их хоть в txt, разницы нет, но запросы к ним ты писать уже не сможешь.
я скозал
>Сменил три банка: обычно кроме MS SQL/Oracle ничего не видел.
ну сами базы понятно, они никуда не денутся
я говорил, что сейчас логика над базами делается в ORM - в самом джава приложении, а не в процедурном языке базы. Такой тренд, туда идёт. Можно много плача про это почитать на том же скуль.ру. При таком раскладе "разработчики баз данных олтп" нахуй не нужны.
Сам был в десяти банках. Видел эти олтп. ЦФТ на диасофте стоит с окошками на делфях сверху и диды это поддерживают сидят. Нет там развития. И рынка особо нет (мне так кажется)
А в хоронилищах что-то развивается.
Ну хотя бы начиная с C-Store.
Тут по Ораклу вопрос тупой есть.
Поставил 18c XE и sqldeveloper. Как подключаться к ДБ как моя собственная схема из dba_users? Например, SCH_TEST с каким-то паролем. Или это вообще не про это? Тогда как создавать объекты бд так, чтобы они по умолчанию принадлежали схеме, а не писать постоянно create table schemaname.objectname.
Похоже, я гуглю как-то неправильно, но нихрена найти не удалось.
Для stackoverflow считаю вопрос туповатым. Помоги, анон.
Когда создаёшь объекты без схемы, они всегда создаются в текущей схеме - по умолчанию это схема твоего пользователя под которым ты логинишься в бд. Текущую схему для сессии можно поменять через ALTER SESSION SET CURRENT_SCHEMA=...
Понял. Спс. Находил уже этот alter в ответах на форуме ораклов, но думал, что есть вариант получше.
Потыкал интерфейс логина. Оказалось, другие настройки неправильно выставлял, а логин и пароль схемы рабочие были.
Пока сделал так: Каждое ФИО это отдельная таблица, где два поля - Дата и Время. Для каждой даты можно будет использовать несколько значений времени.
Но мне кажется можно сделать не так дебильно, как у меня.
Попробуй погуглить в сторону графовых баз данных. Или же тебе нужно гуглить в сторону связей между сущностями, а может тебе просто нужно почитать про иерархические sql запросы.
Ты лучше словами объясни, что тебе нужно сделать. Потому что как ты нарисовал - достаточно одной таблицы с логическим ключом (id, timestamp), где id относится к конкретному человеку, а timestamp - время какого-то события.
Пока что думаю запилить микросервис который будет складывать ордера в кластер редиса и клиенты через апи будут в этот кластер стучаться, но возникает проблема консистентности типа ордер всегда должен быть наиппоследним
1) приходит ордер во время T1, я начинаю класть его в редис
2) в это же время в другом потоке пришел ордер во время T2 (более актуальный) и я его тоже положил в редис раньше T1
3) ордер T1 положился в редис и перезаписал собой Т2
То есть у меня теперь в редисе неактуальное состояние ордербука, как такое разрулить можно? Можно ли в редисе как-то денаить запись если в записи таймстемп раньше уже записанного?
В таком случае ты какую хуету нарисовал выше >>390141 в виде дерева.
Думай о SQL как о связке Excel таблиц, у которых связаны колонки и пополняются ряды. Для твоего случая тут вообще никакие связки не нужны, тупо пишешь в базу имя, дату-время входа и дату-время выхода.
Name | Time In | Time Out
Либо если вы имена где-то храните, то имя у тебя будет ключом к базе имён. Всё.
>Name | Time In | Time Out
Как в этом случае добавлять в Time In и Time Out несколько записей, где тип данных DateTime?
Зачем добавлять несколько записей? Новая запись -> новая строчка. Либо можешь проверять, есть ли запись Time In, тогда писать в Time Out, а если нет, то делать новую строчку.
Алсо, я так понимаю, с тебя потом спросят какие-то отчёты по посещаемости. Сразу прикинь, как ты будешь их строить с той схемой, которую ты делаешь. А то потом окажется, что ты всё пишешь, а сбор отчёта можно было бы делать намного проще. И спрашивать отчёты с тебя будут скорее всего как раз в формате пиво таблички какой-нибудь, из разряда кто опоздал, кто задержался и сколько времени за какой период переработал и не доработал. Так что сразу понимай, как ты будешь такой отчёт делать.
У меня в этом плане свобода действий, ты бы как посоветовал отчеты делать? Пока планирую запилить скрипт, который будет из БД записывать в эксель за каждый день опоздания, переработки и уже в экселе считать сводную таблицу за отчетный период. БД Access дружит с экселем?
>ты бы как посоветовал отчеты делать
Хз как бы я сделал. Здесь надо ещё учесть несколько нюансов, например:
a) выходят твои сотрудники наружу или нет во время перерывов, и куда ты будешь это писать. По идее нужно записывать каждый выход и отнимать время отсутствия.
b) имеет ли для руководства значение каждый день (допустим, чтобы ни в коем случае сотрудник не работал меньше 8 часов суммарно за день) или важно считать только сумму часов за отчётный период (полмесяца или что там у вас). Если важно считать за каждый день, то надо чекать каждый день и ставить флажок и там отдельно считать пропущенные часы за каждый день, допустим.
с) имеет ли для руководства значение чекать переработку каждый день или нет, надо ли считать переработку или нет.
Access дружит с Экселем, разумеется, но тебе нужно будет всё равно экспортом заниматься.
Ну ты понел в общем, что тебе самому надо посидеть и составить на примере тестовых данных, как это будет выглядеть у тебя в конечном итоге.
На что обратить внимание?
Что можно мониторить не устанавливая доп софт?
Права схемы или от кого запускаю прогу?
В открытом соединении в списке объектов базы могу всё создавать спокойно. Но что-то я тогда не понимаю зачем вообще эта кнопка "new" нужна.
>логика над базами делается в ORM
>"разработчики баз данных олтп" нахуй не нужны
Это да, этого и боюсь ввиду того что кроме PL/SQL не знаю нихуя. Надо перекатываться в Java + Oracle иначе посадят меня в петушиный угол к аналитикам бизнес-показатели считать
>я говорил, что сейчас логика над базами делается в ORM - в самом джава приложении, а не в процедурном языке базы
Попытайся создать что-нибудь сложнее круда.
Попытайся создать собственную CMS или приложение, которое обрабатывает больше терабайта данных. И не смеши, пожалуйста, местных обитателей.
>Попытайся создать что-нибудь сложнее круда.
нахуй ты мне это пишешь то
я знаю, что орм говно, но это раскладов на рынке не изменит
какое у тебя в банке приложение, которое "обрабатывает больше терабайта данных". что ты несешь вообще?
>Надо перекатываться в Java + Oracle
если есть варик, перекатывайся в джабу конечно
это я в оракл говне 10+ лет сижу. Так бы давно туда закатился
>какое у тебя в банке приложение, которое "обрабатывает больше терабайта данных"
Ты хочешь сказать, что таких приложений нет и терабайта данных не может существовать?
Да вот нет. Как минимум знаю один банк в котором работаю, логика работы которого построена на PL/SQL в большинстве случаев.
Как ты думаешь, какой объём данных в системах, которые считают премии считают в условном мегафоне, ты думаешь, что там ОЛАП, а бизнес логику фиксят программисты? А если речь идёт о каком-нибудь здоровом складе, где нужно минимум привязать миллион товара к полкам. Про банки я даже говорить не хочу, любая джава там по пизде пойдёт.
ебать клован, я работал в десяти банках из топ 10, может в двух там в самых больших абсках там и есть таблицы на терабайт, но это хистори за года разбитая по партициям, которые в олтп запросе не используются. Ты вообще знаешь, что такое олтп запрос, ёба?
он одну строку вытаскивает/апдейтит
Сколько тебе лет?
Расскажи о своём опыте и зарплате.
Что посоветуешь джуну, который решил найти своё призвание в БД, и даже работу пару месяцев назад нашёл?
Есть смысл пытаться вкатываться во всякие Hadoopы? Работал аналитиком?
>>312894 (OP)
А мне тут могут объяснить, чем вообще занимается аналитик со знанием sql, но без знания датасайнс? Подобных вакансий довольно много, требований мало, а зп выше средней по ДСам.
У меня есть таблица состоящая из id, parent, date
parent - это числовое значение, оно может равняться 0, либо оно может равняется id строки, где это самое parent равно 0.
Нужно выбрать значения где parent равно 0, но отсортировать их таким образом, что сперва будут идти те, у которого большее значение date из поста, где parent равно id поста, где parent равно 0.
Если вы не поняли, о чем я толкую, то представьте себе посты на дваче, оппост мы помечаем parent 0, а все остальные будут равны id оп-поста
> Сколько тебе лет?
> Расскажи о своём опыте и зарплате.
25 лет, работаю год, получаю больше полусотни. Но это аутсорс. Опыт - почти только SQL, остальное учу сам, в пределах работы другое не получается использовать(пока, надеюсь).
Попал скорее случайно, без знаний, пригласили на собес и там понеслась. Повезло с начальством в банке, которое ратовало за адекватную разработку, а не за быструю реализацию - стараюсь избегать быдлокода и ругаюсь, если вижу хуйню.
> Что посоветуешь джуну, который решил найти своё призвание в БД, и даже работу пару месяцев назад нашёл?
Логика. Учись писать адекватный код, разбирайся в плане запросов и не вороти хуйни, не делай лишнего. В идеале, то, что ты делаешь, должно работать максимально эффективно, без ошибок и без тормозов. Видишь, что можно что-то исправить и уверен в этом - пиши начальству, проявляй инициативу.
> Есть смысл пытаться вкатываться во всякие Hadoopы? Работал аналитиком?
А хуй его. Кто-то говорит, что хадуп - рудимент и скоро вымрет, а у меня есть инфа от коллеги, которая сменила место работы, что на ее новом месте очень ценятся разработчики хадупа. У нас они тоже есть, но про них мало чего знаю.
> А мне тут могут объяснить, чем вообще занимается аналитик со знанием sql, но без знания датасайнс? Подобных вакансий довольно много, требований мало, а зп выше средней по ДСам.
Аналитиком официально не работал, но так как обычно это люди, которые в SQL не разбираются и в оптимизацию не умеют, то приходилось выполнять работу за них.
Чем занимаются? Бизнес говорит либо "хотим такую фичу", либо "вот тут хуйня какая-то, не сходится", а аналитик должен понять имеющуюся бизнес-логику и дополнить ее или найти, где же косяк в расчете чего-нибудь и на основании своих изысканий написать документ для разработчика, что именно он должен сделать - а разработчик уже должен привести код к стандартам разработки своего отдела, учесть процессы внутри своей системы и выкатить изменения по требованиям бизнеса.
На деле выходит так, что в 80% аналитик получает формулировку от бизнеса и говорит разработчику: "бля, хуй знает, как это сделать, ты придумай, а я потом напишу доку, что именно нужно сделать для реализации требований бизнеса".
То есть на деле от аналитика требуется выпытать у бизнеса, что они таки хотят и донести до них мысль "так нельзя", если они хотят хуйню.
> Сколько тебе лет?
> Расскажи о своём опыте и зарплате.
25 лет, работаю год, получаю больше полусотни. Но это аутсорс. Опыт - почти только SQL, остальное учу сам, в пределах работы другое не получается использовать(пока, надеюсь).
Попал скорее случайно, без знаний, пригласили на собес и там понеслась. Повезло с начальством в банке, которое ратовало за адекватную разработку, а не за быструю реализацию - стараюсь избегать быдлокода и ругаюсь, если вижу хуйню.
> Что посоветуешь джуну, который решил найти своё призвание в БД, и даже работу пару месяцев назад нашёл?
Логика. Учись писать адекватный код, разбирайся в плане запросов и не вороти хуйни, не делай лишнего. В идеале, то, что ты делаешь, должно работать максимально эффективно, без ошибок и без тормозов. Видишь, что можно что-то исправить и уверен в этом - пиши начальству, проявляй инициативу.
> Есть смысл пытаться вкатываться во всякие Hadoopы? Работал аналитиком?
А хуй его. Кто-то говорит, что хадуп - рудимент и скоро вымрет, а у меня есть инфа от коллеги, которая сменила место работы, что на ее новом месте очень ценятся разработчики хадупа. У нас они тоже есть, но про них мало чего знаю.
> А мне тут могут объяснить, чем вообще занимается аналитик со знанием sql, но без знания датасайнс? Подобных вакансий довольно много, требований мало, а зп выше средней по ДСам.
Аналитиком официально не работал, но так как обычно это люди, которые в SQL не разбираются и в оптимизацию не умеют, то приходилось выполнять работу за них.
Чем занимаются? Бизнес говорит либо "хотим такую фичу", либо "вот тут хуйня какая-то, не сходится", а аналитик должен понять имеющуюся бизнес-логику и дополнить ее или найти, где же косяк в расчете чего-нибудь и на основании своих изысканий написать документ для разработчика, что именно он должен сделать - а разработчик уже должен привести код к стандартам разработки своего отдела, учесть процессы внутри своей системы и выкатить изменения по требованиям бизнеса.
На деле выходит так, что в 80% аналитик получает формулировку от бизнеса и говорит разработчику: "бля, хуй знает, как это сделать, ты придумай, а я потом напишу доку, что именно нужно сделать для реализации требований бизнеса".
То есть на деле от аналитика требуется выпытать у бизнеса, что они таки хотят и донести до них мысль "так нельзя", если они хотят хуйню.
Дай пример таблицы с данными
Гугли рекурсию в скл
Зачем тебе редис?
Мб еще раббит эм кью и докер собираешься использовать?
Вот ха каких хуем редис, блжад, тут нужен, ума не приложу?
Это вообще дичь, какие нахуй таблички по именам? Ты что делать будешь, когда у тебя новые пользователи будут появляться? А что будешь делать, если у тебя 10 ивановых инва иванычей будет?
Тебе нужно
1. Справочник пользователей, d_user (id, first_name, last_name...), id=1, name = Иван
2. Справочник с типами действий пользователей, d_action (id, name) id=1, name = вход; id=2, name = выход
2. Таблица с фактами входа-выхода, t_user_action
(user_id, action_id, create_date)
И пиши в нее все свои события.
Не делай никогда таблички на основе какого-то частного говна, это никогда работать не будет.
Если не юзаешь говно типа mysql, который в 2к19 не умеет в сте, тогда так:
with cte as (
Select id, parent, date
From t_data t
Where t.parent=0
Union all
Select c.id, c.name, c.date
From cte c
INner join t_data p on c.parent=p.id
)
Select
*
From cte
Order by...
Сортировку сам напиши, ни хуя из твоего поста не понял.
Больше сотни - это если бы я жил в ДС и работал на этой же вакансии в московском офисе.
Я же говорю - это аутсорс, мухосрань, потому меньше, но я более чем доволен таким раскладом.
Да хуй его знает.
Ну, точнее, знаю. Лояльность к локальным начальству и коллегам, тян, планы. А так же осознание того, что очень много нужно будет поменять, устраиваться на новом месте и все такое.
Я сижу на жопе ровно, потому что мне нравится и меня все устраивает, поднимать свои madskillz я без проблем могу и тут.
это пиздец как ахуенно для провинции
Храню список idшников из-за того, что если бы вкладывал, был бы пиздецкий размер у каждого документа
вся суть монгоебов - дропнуть реляционное хранилище потому, что зашквар, и пытаться реляционно долбиться в монге
Что это за вопрос, вообще?
Для того, чтобы был олап, тебе потребуется откуда-то его наполнять. Это скорее всего будет олтп. Олтп используют для систем всяких, которые какие-то ОПИСЫВАЕМЫЕ процессы автоматизируют.
Олап используют там, где заранее неизвестно, какие данные нужно смотреть и в каких разрезах. Ты вот конкретно с какой целью интересуешься?
>>392488
Я бы хотел, чтобы все умные люди приехали в Москву однажды, оставив в мухосранях ни хуя, чтобы местечковые царьки наконец-то поняли, что у них все прогнило, и народ голосует уже ногами, съебывая в ДС.
>Что это за вопрос, вообще?
Ты, наверное, его не понял.
Есть связи между таблицами, которые через primary key реализуются.
Зачем их использовать? Где их чаще использовать? Может лучше использовать exists? Как они влияют на оптимизацию?
чесгря меня останавливает исключительно непонимание применимости ДСУБД, чтобы нырнуть в монгу или иже с ней
а то так и получаются дурачки на конфах, задающие вопросы типа "я тут выкинул мускуль, засунул все в монгу и вообще никаких проблем не знаю"
>Посоветуйте какую-то широкоиспользуемую СУБД которую можно осваивать паралельно с чтением книги.
Очень часто СУБД привязывается к ЯП. И сложности бизнес логики
Если учишь C#, то это книга по MS SQL, если PHP, то MySQL Java- Oracle.
Книги нагуглишь сам, но для начинающих, независимо от СУБД, очень хорошо заходит книга по t-sql Инцыка Бен-Гана.
>Посоветуйте какую-то широкоиспользуемую СУБД
у каждой субд есть область применения, где она чаще используется
в энторпрайзе - банки, телекомы, хуйомы - используется чаще Oracle, MS SQL
в инторнетах используется чаще бесплатное говно MySQL, PostgreSQL, например, в компании майлсру
Роль вида "разработчик БД" чаще бывает в энторпрайзе. Все эти СУБД, включая оракл и мс скл можно официально скачать с интернетов и задрочвать до бесконечности.
> MySQL, PostgreSQL, например, в компании майлсру
Ебанько, что ты несёшь? У них своя субд уже хуй знает сколько лет.
Нихуч сколько тебе пришлось гуглить, что мэил ру юзает вместо постгре и мускула.
они тарантул еще и в мире стараются активно продвигать и кто-то даже переходит на него
>сколько тебе пришлось гуглить
Мне гуглить не нужно было, у меня товарищ там работает, так что инфа от инсайдера: нихуя у них тарантул не используется во внутренних проектах, только в некоторых, но даже не во всех основных А так то там обычные PostgreSQL, MySQL и MongoDB https://mcs.mail.ru/databases/
тарантул не очень-то и база данных (даже по словам лида разработки)
>Ебанько, что ты несёшь?
ебанько твой дед
тарантул не используют вместо постгре, он как кэш для постгре используется, педивикию посмотри хоть
это вообще не альтернатива реляционным субд
был на трех собесах, про тарантул не слуху не духу
вообще это говно они 3+ лет назад пушили. Сейчас не слышно. До разработок яндекса, типа кликхауса, которые в каждом углу стоят в индустрии - им как до китая раком.
Всё с тобой понятно, ты хуже, чем ебанько. Иди в 4 контору, где не юзают тарантул таких контор ещё дохуя, если что
>Иди в 4 контору, где не юзают тарантул таких контор ещё дохуя, если что
трех собесах в мейлру, дебилоид
Хуя ты упёртый, хаха, три захода в гавань мэил.сру. Ебать ты одаренная дитя лол. Бог любит троицу?)) так сильно хотелось выёбываться в офисе тарантул нинужно яскохал ряяяяя. Дитя, ебать ты потешное.
>тарантул нинужно яскохал ряяяяя
ну иди, расскажи им, как тарантул вместо постгре используют
посмотрим на результаты
Это пойди ты в 4й раз им расскажи, хахахахха
пробовал
Какая сейчас роль реляционных БД? На сколько профитно залезать туда прямо сейчас? Кто быстрее вымрет, вы или сис. админы?
пизжу, Aerospike, Mongo, CouchDb поддерживают асид. ну, осталось подождать пока они вытеснят оставшиеся СУБД (до, приблизительно, никогда), и можно ливать из DBA
сразу в гей-шлюхи, чтоб наверняка
Если Х - первичный ключ, а в джоине идёт условие, что a.x is null, то, логично предположить, что запрос вернёт 0 строк.
Пидор ленивый, ты тредик не попутал?
Если ты дошёл до бд, то гуглить уже научился, справишься сам!
Иногда аноны упоминают название годных книг
Ну да. Ты не увидел, что это левый джойн? Это условие не выполнится ни для одной строчки для таблицы справа - значит, там будут наллы в присоединенной таблицы, но в выборку попадут все строки из tbl a.
После группировки по полю первичного ключа все строки удовлетворят условию count(*) < 11.
Запрос вернёт все строки из таблицы, а их пять.
>Ты не увидел, что это левый джойн? Э
Он джойнит её с собой.
Это аналогично
from tbl a
left join tbl b
on a.x =b.x
where a.x is null
a.x - левая таблица, каким образом там будут nullы?
>Это условие не выполнится ни для одной строчки для таблицы справа
Там условие на левую таблицу.
>>397595
Господа, покурите, пожалуйста, внешние джойны.
> >Ты не увидел, что это левый джойн? Э
> Он джойнит её с собой.
> Это аналогично
> from tbl a
> left join tbl b
> on a.x =b.x
> AND a.x is null
> a.x - левая таблица, каким образом там будут nullы?
Условие на левую таблицу в соединении, а не в where.
Вы где SQL учили?
Я могу только вспомнить про 3-6 нормальных форм да книгу Ульмана. Про NoSQL вообще нихуя не знаю.
ссычевавшийся студент с хорошим знанием матана, вкатываюсь в проектирование реляционных БД
в целом
на СНГ вообще не стоит ориентироваться
не принято там на удаленке нормальные бабки платить
Есть у меня таблица, которая состоит из ключа и 9 других атрибутов. Так вот, как мне запилить проверку ограничение, триггер, хз на то, чтобы только один из этих девяти атрибутов был ненулевым? Ну то есть вот кортеж, ключ ясен хуй, один из 9 атрибутов чем-то забит, остальные пусты. И так каждая запись в таблице.
Господа, перепиливаю под себя программу с кучей (около сотни) SQL команд (выборка, добавление, удаление), к ней идет БД формата СУБД MS Access, в ней я меняю почти все наименования (таблицы, столбцы) неизменной остается структура и впринципе логика. Скажем был склад овощей, делаю склад фруктов.
Так вот, нет ли инструмента/способа автоматом переделать эти запросы под уже новую БД, то есть прописать там что "название овоща" меняем на "название фрукта" и тд, а оно бы уже зная сие в запросах где нужно заменило бы что нужно ? Вручную это пиздос, пробовал через замену, но по всей видимости где - то заменяется не то что нужно или не дозаменяется и все идет по пизде. Может я аутист и средствами того же Access это можно сделать ? Т.е импортировать запросы из проги, поменять в БД что надо, как - то поменять запросы, экспортировать в прогу...
>Может я аутист
Таки скорее всего, но все же
>средствами того же Access это можно сделать ? Т.е импортировать запросы из проги, поменять в БД что надо, как - то поменять запросы, экспортировать в прогу
Это в мою головушку пока я писал пост как - то же пришло. Чекнул режим SQL в Access и вауля, он сам меняет в запросах при изменениях БД. Заебись, надеюсь синтаксис общения OLEDB такой же как внутри СУБД, тогда можно считать что моя задача решена.
я делаю так:
%function_name% (
(CASE table.A IS NULL THEN 0 ELSE 1 END) +
(CASE table.B IS NULL THEN 0 ELSE 1 END) +
...
) = 1
этот case замени на более удачную функцию под твою СУБД
можно заебенить как CHECK CONSTRAINT для твой таблицы, если наличие больше одного ненулла недопустимо
Все в точности наоборот.
У тебя есть департаменты и сотрудники.
Департамент без сотрудников может быть, а сотрудник без департамента - нет.
Кто здесь родительская запись? Правильно, департамент.
То есть насколько я понял при любом типе связи, дочерняя запись обязана иметь родителя?
Просто сам пример с департаментом понятен в этом плане, но он не очень точно передает видимо только для меня суть неидентифицирующей связи. Сам Интернет говорит мне о внешнем ключе в первичном ключе (идентифицирующая) или о внешнем ключе не в первичом (неидентифицирующая), но в чем же причины использования этих типов?
Ну, я дохуя умный и не совсем верно тебя понял.
Скорее всего речь о тех внешних ключах, которые позволяют однозначно определить дочернюю запись(связь один к одному) или нет(один ко многим).
Например: есть таблица договоров, карточных счетов и таблица связи между ними.
В таблице связи ссылка на таблицу договоров - неидентифицирующий внешний ключ, потому что ты на один договор может быть несколько карточных счетов(один ко многим). То есть ты не можешь однозначно идентифицировать запись в таблице связей только по договору, т.е. это не уникальный ключ.
А вот карточный счёт в этой таблице, который есть ссылка на таблицу карточных счетов - это уникальный ключ таблицы, потому что один счёт не может принадлежать нескольким договорам(один к одному), то есть это тот самый идентифицирующий внешний ключ.
С другой стороны, это все без гугла на основании собственных выводов, так что я могу и проебаться с объяснениями.
Я - кот. Мяу.
Не могу подключиться с сайта, который там же, к базе (внутри одного инвайронмента). Во всяком случае в "client connections" не видно чтобы происходило подключение. Со своего компа с теми же настройками подключения - могу. Нужно менять security group и добавлять туда сам амазон или причина может быть в другом?
википедия
Да понятно ведь что джоин 3-х таблиц, но как именно он оформляется в таком случае? Я так понимаю надо вложить один джоин в другой?
Ебта ну загугли как джоин 3-х таблиц делается!
Там для таких как ты и я дохуя статей про это есть.
Там джоины 3-х таблиц у которых между собой прямые связи, а не вложенные джоины. Если бы все было легко так найти, я бы здесь не спрашивал.
Ёпта блядь, я наблюдаю за этим и охуеваю.
Есть таблица A с полем X, есть таблица B с полем Y, есть таблица C с полями X и Y. Охуенно прямые связи, не правда ли?
Что тебе мешает представить запрос вида
select *
from a join c on a.x = c.x
join b on c.y = b.y?
select *
from ta
join tref on ta.Id = tref.AId
join tb on tb.Id = tref.BId
where ta.Govno = 1 and tb.Kek is not null
сука, опять трендель не обновился
Merge - это охуенно, это всяко круче любой хуйни из SSIS, так что не еби себе мозги и оставляй, как есть.
если в trains уже есть данные, убедись, что там везде валидные company/companys.id
спасибо <3
mysql используют, только ты глотнешь говна и помыкаешь горя
эта говносисистема на хую видала половину стандарта и половину нормальных человеческих представлений о том, как что должно работать (not null констрейнты в некоторых ситуациях ведут себя так, что ты обязательно охуеешь, например).
Если не боишься - вперед.
Если хочешь по-нормальному, бери постгрес. Стоит столько же (ни хуя), но является настоящей субд.
Гуглятся только примеры для SymmetricDC pro, где это вообще делается нажатием несольких кнопок в гуи, и большой мануал от создателей, где много информации о куче концепций, но очень мало конкретики и примеров.
ПЕРЕКОТ
https://2ch.hk/pr/res/1406455.html (М)
ПЕРЕКОТ
https://2ch.hk/pr/res/1406455.html (М)
ПЕРЕКОТ
https://2ch.hk/pr/res/1406455.html (М)
Братишка, ты мне снова нужен >>370932
Есть одна должность которая маячит в банке.
Собес на следующей неделе, есть время подготовится.
Написали из требование только:
Ожидаемый опыт:
- Знания Oracle SQL, PL/SQL
- Понимание принципов разработки OLTP систем
- Умение разобраться в чужом коде
- Умение отлаживать код
- Умение работать с документами
>Знания Oracle SQL, PL/SQL
Про это расскажу думаю. Спросят поди про синтаксис, основные конструкции. Индексы, партиции, план такое говно.
>Понимание принципов разработки OLTP систем
Что тут хотят от меня? Ну индексы не вешать чтобы вставка была быстрее, ну sql аналитику не крутить на oltp базах, что еще тут рассказать?
>sql-ex за полгода и устраиваемся в ДС на 100 000 без задней мысли
И на какую позицию можно претендовать ? Пишем в сопроводительном письме, что я осилил все задачи на sql-ex и profit ?
>Не стоит. Быстро сдегродируешь с прогера до внедренца-консультанта
С работой на Salesforce тоже ожидать деградации?
Если ты осилил все задачи оттуда, то у тебя непременно будет сертификат.
Но работодателю зачасьую интересно, умеешь ли ты решать задачки с практической точки зрения, поэтому он будет их тебе давать прямо на сбоеседовании, тут-то ты и врубишься, что ты их можешь решить без задней мысли, ведь миллион раз дрочил их на этом sql-ex.
Это копия, сохраненная 14 июня 2019 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.